Clonan tu voz para extorsionar a familiares o robar tu cuenta

Clonan tu voz para extorsionar a familiares o robar tu cuenta

La Inteligencia Artificial está tomando caminos que definitivamente no son los esperados, aunque no sorprenda que los cibercriminales tengan, también, allí su nicho. Ahora clonan voces para extorsionar a familiares o robar tu cuenta.

Esto es algo que enciende las alarmas en las agencias de seguridad gubernamentales, pero también entre las empresas de tecnología que han ido impulsando desarrollos que ponen en manos de cualquiera la Inteligencia Artificial, como ChatGPT, por ejemplo.

Actualmente, se han detectado dos de estos usos peligrosos, uno es que emplean la Inteligencia Artificial para extorsionar a familiares de una persona y el otro es para acceder a las cuentas bancarias con un método biométrico, en los dos casos con la misma estrategia, clonando la voz.

8 webs para crear imágenes por inteligencia artificial

Extorsión en Canadá: la voz de su nieto, pero no era él

Se conoció un caso de estafa con la voz clonada por una Inteligencia Artificial, sucedió en Canadá, una pareja de abuelos fueron contactados por teléfono, la voz del otro lado era exactamente igual a la de su nieto, pero con un ritmo de conversación acelerada que le indicaba a Ruth Card de 73 años que necesitaba ayuda.

En la estafa con la llamada telefónica, el supuesto familiar le indicaba a la víctima que estaba en la cárcel, sin billetera, sin móvil y sin forma de poder pagar la fianza para salir, que debía ser consignada en efectivo.

Esto fue suficiente para que la pareja de abuelos fuesen directamente al banco para retirar 3.000 dólares canadienses y luego fueron a otra agencia para retirar todavía más dinero, según la exigencia del “nieto” en la llamada.

Un gerente los salvó de ser estafados, según lo que relata el Regina Leader-Post. El funcionario del banco les informó que otro cliente había recibido otra llamada de este tipo, de forma inquietante, y que luego comprobó que era la voz clonada de otra persona.

Esto es, apenas, una pequeña muestra de la enorme lista de estafas que están ocurriendo, el problema es que la tecnología está al servicio de todos, incluso de aquellos que no debería.

Al cierre de 2022, en Estados Unidos se reportaron más de 36.000 estafas de este tipo, haciéndose pasar por amigos y familiares, traduciéndose en más de 11 millones de dólares en estafas y pérdidas.

El delincuente solo necesita una pequeña muestra de voz de la víctima y con una mínima inversión en herramientas disponibles en línea, pueden replicar por completo la voz de cualquier persona, pudiendo engañar a cualquiera en fracciones de segundo, pero también, parece que es posible engañar a otras máquinas.

Ejemplo de este tipo de software es el desarrollado por ElevenLabs, una empresa de reciente fundación que ofrece una herramienta de Inteligencia Artificial capaz de generar una copia de una voz, a partir de una muestra breve, y luego convertir cualquier texto en un audio, replicando ese tono de voz. Dependiendo del volumen de uso, es un software que se puede comprar en línea por unos 300 dólares.

El problema más grave es que las autoridades no cuentan con la capacidad para poder rastrear a los delincuentes o poder determinar la manera en la que lograron ejecutar el engaño.

Autenticación de voz: otro método de seguridad violado

Si te ha dejado con la boca abierta las estafas de clonación de voz, entonces no creerás el peligro aún mayor que puede representar la Inteligencia Artificial: usar tu voz para entrar a tu cuenta bancaria.

Una extensa lista de bancos en Europa y EE.UU. utilizan la biometría por voz como método de verificación para que sus clientes puedan entrar en sus cuentas bancarias desde el móvil, de hecho, señalan que es equivalente al uso de la huella, así que parecía ser una buena idea… hasta ahora.

El sitio Vice News hizo un experimento con un editor de su sección Motherboard, quien ha utilizado el software gratis de ElevenLabs, del que te hablamos antes, para tomar muestras de voz que luego eran sintetizadas para ingresar en su cuenta bancaria utilizando su voz, algo que parece que logró sin el menor inconveniente.

Los bancos se refieren a este método de verificación como “huella vocal” uno de los que lo utilizan es TD Bank, pero no es el único, también Chase tiene Voice ID y Wells Fargo también emplea una tecnología muy parecida.

Esto podría colocar en riesgo a millones de cuentas bancarias y diferentes localidades del mundo, por ejemplo, el sistema de la empresa Veridas en alianza con BBVA, ha desarrollado una tecnología de verificación por voz utilizada en el sector bancario, pero una simple prueba con un software barato, podría echar por tierra todo este trabajo.

Especialistas en seguridad están recomendando a los bancos y demás plataformas que utilizan este método de verificación, sustituirlo para evitar que sus clientes y usuarios puedan ser víctimas de estafas.

Lensa AI: cómo crear las virales fotos hechas por IA

  • Ver Comentarios