Anticipan una nueva oleada de estafas virtuales

Alerta por nuevas estafas: llegan las falsas videollamadas con voz e imagen generadas con inteligencia artificial.

Los atacantes pueden clonar el rostro y el timbre de voz de las personas para engañar a sus familiares.
Por Marcelo Bellucci, publicado por Clarín.

En este último año, los avances de la inteligencia artificial revelaron una faceta inédita para componer imágenes realistas: realizar videos falsos y textos coherentes. La clonación de voces también se suma a la lista y los expertos en seguridad anticipan una nueva oleada de estafas virtuales.

Visto en Clarín
Las voces falsificadas a través de la IA todavía tienen mucho camino por recorrer antes de ser indistinguibles de las humanas pero, en una videollamada de corta duración, son capaces de engañar hasta el más experimentado.

Sobre todo, si la persona que aparece en la pantalla del móvil solicitando un depósito por alguna fatalidad (accidente, robo o emergencia), coincide con la voz y la apariencia de quien dice ser.

El auge de esta modalidad tiene su epicentro en China y se expande vertiginosamente a otras latitudes. Diferentes medios asiáticos reportan lo que se asemeja a una quimera de la ciencia ficción: personas despojadas por un avatar digitalizado.

Por este motivo, la Administración del Ciberespacio, está alertando al público mediante publicaciones en Weibo, el "Twitter chino", que “sean cautelosos al dar información biométrica y que se abstenga de compartir videos y otras imágenes en Internet".

Sin embargo, las autoridades no tienen los suficientes recursos para frenar este tipo de fraudes, debido a que es complicado identificar al estafador a través de llamadas y porque es una tecnología nueva que no tiene la jurisprudencia para actuar a la brevedad.

Según reporta la agencia Xinhua, un empresario llamado Wan Guo, transfirió 3 mil dólares de su cuenta, tras recibir una comunicación por WeChat de una mujer cuyo rostro y voz se parecían mucho a las de su esposa.

La excusa fue que había tenido un accidente con su vehículo y tenía que pagar los daños ocasionados a otro conductor. Para escapar a la emboscada de la suspicacia, insistía en que debía ser inmediato.

"Aunque había algo artificial en su forma de expresarse, no se me ocurrió desconfiar ya que las expresiones del rostro e incluso la voz, eran las de mi esposa", declaró el empresario al Global Times.

Un flagelo que se expande

Los investigadores del caso descubrieron que los estafadores conocían los hábitos del matrimonio. Además sabían que la mujer tenía un canal de cocina en una red social y de allí sacaron las capturas de su rostro y voz para maquinar el deepfake.

Intuyendo algo fuera de lugar, el empresario contactó por mensaje a su mujer al cabo de unos instantes y esta le negó los hechos. De inmediato, Guo notificó a la institución bancaria que procedió a bloquear la operación, impidiendo la transferencia.

Varios casos similares aparecen en las páginas del Washington Post, donde indican que, según datos de la Federal Trade Commission (FTC), este tipo de fraudes se coloca entre los segundos más frecuentes, con más de 36.000 denuncias.

El temor es que algunos timadores comenzaron a utilizando esta tecnología para clonar los rostros de influencer y streamers, para reclamar productos y regalías a las empresas que los contratan.

En la mayoría de los intentos es difícil detectar la trampa, sobre todo porque el tono de urgencia vuelve menos reflexiva a la víctima. El tema resulta más complicado si el que recibe la llamada es mayor y desconoce estas tecnologías.

Cómo se genera el engaño

Hace apenas un año, las imágenes generadas por IA lucían como bosquejos imperfectos y ahora, son lo suficientemente realistas como para engañar a millones de personas. Algo similar ocurre con la voz.

Algunas startup de síntesis de voz como ElevenLabs o Respeecher, mediante la IA, permiten replicar cualquier locución con sólo una muestra de audio de unos pocos segundos, algo muy fácil de conseguir en las redes sociales.

El software de generación de voz analiza el patrón que hace que la voz de una persona sea única y busca en una amplia base de datos para encontrar un tono similar. Luego recrear el timbre y los sonidos individuales para crear un efecto similar.

Los expertos en seguridad sostienen que la voz artificial no siempre se escucha tan melodiosa como la original. El tono, resulta monótono y robótico, con extraños tartamudeos y artefactos sintéticos. / Por Marcelo Bellucci, publicado por Clarín.-


___________________
NOTA: Las cookies de este sitio se usan para personalizar el contenido y los anuncios, para ofrecer funciones de medios sociales y para analizar el tráfico. Además, compartimos información sobre el uso que haga del sitio web con nuestros partners de medios sociales, de publicidad y de análisis web. Ver detalles.

IMPORTANTE: Todas las publicaciones son sin fines comerciales ni económicos. Todos los textos de mi autoría tienen ©todos los derechos reservados. Los contenidos en los link (vínculos) de las notas replicadas (reproducidas) y/o citadas son de exclusiva responsabilidad de sus autores. Éste blog ni su autor tienen responsabilidad alguna por contenidos ajenos.

Comentarios

Entradas más populares de este blog

Herramientas útiles y entretenidas de alto riesgo

Mucho cuidado con las apps de préstamos instantáneos

La tercera economía más grande del mundo