Anticipan una nueva oleada de estafas virtuales
Alerta por nuevas estafas: llegan las falsas videollamadas con voz e imagen generadas con inteligencia artificial.
Los atacantes pueden clonar el rostro y el timbre de voz de las personas
para engañar a sus familiares.
Por Marcelo Bellucci, publicado por
Clarín.
En este último año, los avances de la inteligencia artificial revelaron
una faceta inédita para componer imágenes realistas: realizar videos
falsos y textos coherentes. La clonación de voces también se suma a la
lista y los expertos en seguridad anticipan una nueva oleada de estafas
virtuales.
Visto en Clarín |
Sobre todo, si la persona que aparece en la pantalla del móvil solicitando
un depósito por alguna fatalidad (accidente, robo o emergencia), coincide
con la voz y la apariencia de quien dice ser.
El auge de esta modalidad tiene su epicentro en China y se expande
vertiginosamente a otras latitudes. Diferentes medios asiáticos reportan
lo que se asemeja a una quimera de la ciencia ficción: personas despojadas
por un avatar digitalizado.
Por este motivo, la Administración del Ciberespacio, está alertando al
público mediante publicaciones en Weibo, el "Twitter chino", que “sean
cautelosos al dar información biométrica y que se abstenga de compartir
videos y otras imágenes en Internet".
Sin embargo, las autoridades no tienen los suficientes recursos para
frenar este tipo de fraudes, debido a que es complicado identificar al
estafador a través de llamadas y porque es una tecnología nueva que no
tiene la jurisprudencia para actuar a la brevedad.
Según reporta la agencia Xinhua, un empresario llamado Wan Guo,
transfirió 3 mil dólares de su cuenta, tras recibir una comunicación por
WeChat de una mujer cuyo rostro y voz se parecían mucho a las de su
esposa.
La excusa fue que había tenido un accidente con su vehículo y tenía que
pagar los daños ocasionados a otro conductor. Para escapar a la
emboscada de la suspicacia, insistía en que debía ser inmediato.
"Aunque había algo artificial en su forma de expresarse, no se me
ocurrió desconfiar ya que las expresiones del rostro e incluso la voz,
eran las de mi esposa", declaró el empresario al Global Times.
Un flagelo que se expande
Los investigadores del caso descubrieron que los estafadores conocían
los hábitos del matrimonio. Además sabían que la mujer tenía un canal
de cocina en una red social y de allí sacaron las capturas de su
rostro y voz para maquinar el deepfake.
Intuyendo algo fuera de lugar, el empresario contactó por mensaje a su
mujer al cabo de unos instantes y esta le negó los hechos. De
inmediato, Guo notificó a la institución bancaria que procedió a
bloquear la operación, impidiendo la transferencia.
Varios casos similares aparecen en las páginas del Washington Post,
donde indican que, según datos de la Federal Trade Commission (FTC),
este tipo de fraudes se coloca entre los segundos más frecuentes, con
más de 36.000 denuncias.
El temor es que algunos timadores comenzaron a utilizando esta
tecnología para clonar los rostros de influencer y streamers, para
reclamar productos y regalías a las empresas que los contratan.
En la mayoría de los intentos es difícil detectar la trampa, sobre
todo porque el tono de urgencia vuelve menos reflexiva a la víctima.
El tema resulta más complicado si el que recibe la llamada es mayor y
desconoce estas tecnologías.
Cómo se genera el engaño
Introducing Eleven Multilingual v1: Our New Speech Synthesis Model!
— ElevenLabs (@elevenlabsio) April 27, 2023
We’re thrilled to launch our new model supporting seven new languages: French, German, Hindi, Italian, Polish, Portuguese, and Spanish.
Try it out now at: https://t.co/KEGnUGJ82j pic.twitter.com/ocHMm9tgCj
Hace apenas un año, las imágenes generadas por IA lucían como bosquejos
imperfectos y ahora, son lo suficientemente realistas como para engañar a
millones de personas. Algo similar ocurre con la voz.
Algunas startup de síntesis de voz como ElevenLabs o Respeecher, mediante
la IA, permiten replicar cualquier locución con sólo una muestra de audio
de unos pocos segundos, algo muy fácil de conseguir en las redes sociales.
El software de generación de voz analiza el patrón que hace que la voz de
una persona sea única y busca en una amplia base de datos para encontrar
un tono similar. Luego recrear el timbre y los sonidos individuales para
crear un efecto similar.
Los expertos en seguridad sostienen que la voz artificial no siempre se
escucha tan melodiosa como la original. El tono, resulta monótono y
robótico, con extraños tartamudeos y artefactos sintéticos. /
Por Marcelo Bellucci, publicado por Clarín.-
___________________
NOTA: Las cookies de este sitio se usan para personalizar el contenido y los
anuncios, para ofrecer funciones de medios sociales y para analizar el
tráfico. Además, compartimos información sobre el uso que haga del sitio
web con nuestros partners de medios sociales, de publicidad y de análisis
web. Ver detalles.
IMPORTANTE: Todas las publicaciones son sin fines comerciales ni económicos. Todos
los textos de mi autoría tienen ©todos los derechos reservados. Los
contenidos en los link (vínculos) de las notas replicadas (reproducidas) y/o
citadas son de exclusiva responsabilidad de sus autores. Éste blog ni su
autor tienen responsabilidad alguna por contenidos ajenos.
Comentarios
Publicar un comentario
Bienvenido al blog y muchas gracias por su visita. Espero que el contenido sea de utilidad, interés y agrado.
Antes de colocar un comentario ten en cuenta que no se permitirán comentarios que:
- Posean link promocionando otras páginas o websites
- puedan resultar ofensivos o injuriosos
- incluyan insultos, alusiones sexuales innecesarias y
palabras soeces o vulgares
- apoyen la pedofilia, el terrorismo o la xenofobia.
Ni este Blog ni su autor tienen responsabilidad alguna sobre comentarios de terceros, los mismos son de exclusiva responsabilidad del que los emite.
Este Blog y su autor se reservan el derecho de eliminar aquellos comentarios injuriantes, discriminadores y/o contrarios a las leyes de la República Argentina.