Grupo de Medios Infopba
Instagram

Entérate primero

Síguenos en Instagram

Tecnologia

Clonación de voces con IA: la mayoría de las personas no distingue entre lo real y lo sintético

Un estudio británico revela que deepfakes de voz hiperrealistas pueden engañar a casi cualquier oyente. Con solo minutos de grabación y programas gratuitos, la tecnología pone en jaque la confianza digital y plantea riesgos en seguridad, política y comunicación.

  • 04/10/2025 • 09:06

TAPA DEL DÍA

La inteligencia artificial avanza a pasos acelerados y uno de sus campos más inquietantes es la clonación de voces. Lo que hace unos años parecía ciencia ficción, hoy se convierte en una realidad palpable: voces generadas por IA son casi indistinguibles de las humanas, según un reciente estudio de la Queen Mary University of London publicado en la revista científica PLOS One.

Los investigadores compararon grabaciones de personas reales con audios creados por dos sistemas distintos: uno capaz de clonar voces específicas a partir de solo unos minutos de grabación, y otro que genera locuciones generales sin pertenecer a ningún individuo en particular. Los participantes del experimento evaluaron la autenticidad, dominancia y confiabilidad de las voces, y los resultados fueron contundentes: los deepfakes de voz fueron prácticamente indistinguibles de los humanos.

La facilidad para generar estas voces falsas es alarmante. Según Nadine Lavan, psicóloga y coautora del estudio, “el proceso requiere mínima experiencia, apenas unos minutos de grabaciones de voz y casi ningún costo económico, utilizando software comercial disponible para cualquiera”. Esta accesibilidad abre la puerta a estafas telefónicas, suplantación de identidad, manipulación política y campañas de desinformación, debido a que los audios no solo suenan auténticos, sino que también transmiten credibilidad y cercanía.

Los deepfakes de voz imitan con precisión la forma de hablar, el tono y las características vocales de una persona real. Se logran con grabaciones mínimas o clips públicos de redes sociales como reels, stories o videos de YouTube.

El riesgo es claro:

  • Estafas telefónicas que simulan la voz de un familiar o superior para obtener dinero o información confidencial.
  • Suplantación de identidad de figuras públicas o manipulación de declaraciones en campañas políticas.
  • Dificultad para verificar información, ya que la voz siempre fue un factor de confianza en la comunicación.

Para los especialistas, este hallazgo marca un punto de inflexión. Lavan subraya la necesidad de comprender cómo perciben las personas estas voces y desarrollar estrategias para detectar fraudes antes de que se masifiquen. La clonación de voz es solo una arista de los deepfakes, que también incluyen imágenes y videos hiperrealistas, y que obligan a plantear un debate urgente sobre cómo convivir con esta tecnología sin comprometer la confianza social.

TAPA DEL DÍA 

Opinión: La investigación demuestra que la percepción humana no está preparada para diferenciar entre voces reales y sintéticas. Esto plantea un desafío inminente para la seguridad digital y la comunicación de confianza, donde la educación tecnológica y la regulación serán claves para proteger a la sociedad.