Javascript is not enabled.

Javascript must be enabled to use this site. Please enable Javascript in your browser and try again.

Skip to content
Content starts here
CLOSE ×
Buscar
Leaving AARP.org Website

You are now leaving AARP.org and going to a website that is not operated by AARP. A different privacy policy and terms of service will apply.

La IA impulsa nuevas estafas aterradoramente eficaces

La tecnología puede ayudar a los delincuentes a hacerse pasar por famosos, autoridades del orden público o incluso por ti.


spinner image Una silueta de una persona con un teléfono sobre parte de su cara con una foto de una cara
Ilustración: Tyler Comrie (Foto: Getty Images)

Cuando en febrero un empleado de finanzas de Hong Kong fue convocado a una videoconferencia en directo por el director financiero de su empresa multinacional, todo parecía normal. El director financiero y otros ejecutivos actuaron y sonaron como siempre, aunque el motivo de la reunión era extraño: recibió instrucciones de transferir $25.6 millones a varias cuentas bancarias. Él, por supuesto, hizo lo que su jefe le pidió.

Sorprendentemente, la imagen y la voz del “director financiero” fueron generadas por una computadora, al igual que las de los demás ejecutivos que aparecieron en la llamada. Y las cuentas pertenecían a estafadores. El trabajador fue víctima de una estafa de inteligencia artificial asombrosamente compleja, según informan los medios de comunicación locales. El dinero sigue perdido.

spinner image Image Alt Attribute

¡ÚLTIMA OPORTUNIDAD! - Únete a AARP a precios del 2024; las tarifas aumentan en el 2025.

Obtén acceso inmediato a productos exclusivos para socios y cientos de descuentos, una segunda membresía gratis y una suscripción a AARP The Magazine.
Únete a AARP

Bienvenido al lado oscuro de la tecnología de IA, en el que las voces y los rostros de personas que conoces pueden falsificarse impecablemente como parte de un esfuerzo por robar tu dinero o tu identidad.

Los científicos llevan décadas programando computadoras para que piensen y hagan predicciones, pero solo en los últimos años la tecnología ha llegado al nivel en el que una computadora puede imitar con eficacia las voces, los movimientos y el estilo de escritura de los humanos y, lo más difícil, predecir lo que una persona podría decir o hacer a continuación. El lanzamiento público en los dos últimos años de herramientas como ChatGPT y DALL-E de OpenAI, Gemini de Google (antes Bard), Copilot de Microsoft y otros programas de IA generativa de fácil acceso han puesto algunas de estas capacidades al alcance de las masas.

Las herramientas de IA pueden ser legítimamente útiles por muchas razones, pero también pueden ser fácilmente utilizadas por los delincuentes para crear voces, sitios web, vídeos y otros contenidos realistas pero falsos para cometer fraudes. Muchos temen que lo peor esté aún por llegar.

Estamos entrando en una “revolución industrial para los delincuentes del fraude”, afirma Kathy Stokes, directora de Programas de Prevención del Fraude de AARP. La IA “abre infinitas posibilidades y, por desgracia, infinitas víctimas y pérdidas”.

Video: Cómo evitar las estafas de clonación de voz

Los delincuentes ya están aprovechando algunas de esas “infinitas posibilidades”.

Estafas de famosos. Circuló un vídeo “deepfake” (es decir, una versión falsa de una persona generada por computadora) en el que aparecía el chef Gordon Ramsay avalando los utensilios de cocina HexClad. Era falso. Más tarde, un video similar mostraba a Taylor Swift promocionando Le Creuset. Oprah Winfrey, Kelly Clarkson y otras celebridades han sido imitadas por la IA para vender suplementos para adelgazar.

Estafas de romance. Un hombre de Chicago perdió casi $60,000 dólares en una inversión de criptomonedas que le propuso un estafador de romance que se comunicaba a través de lo que las autoridades creen que era un vídeo falso.

Estafas por extorsión sexual (“sextorsión”). El FBI advierte de que los delincuentes toman fotos y vídeos de las redes sociales de niños y adultos y crean videos falsos explícitos con sus imágenes para extorsionar dinero o favores sexuales.

Eyal Benishti, director ejecutivo y fundador de la ­empresa de ciberseguridad Ironscales, afirma que la IA puede acortar el proceso de ejecución de prácticamente cualquier estafa. “El superpoder de la IA generativa es que puedes darle un objetivo; por ejemplo, dile: ‘Ve a buscarme 10 ideas diferentes de correos electrónicos de suplantación de identidad sobre cómo puedo atraer a X persona’“.

Cualquiera puede utilizar esta tecnología: “Es como descargar cualquier otra aplicación”, afirma Alex Hamerstone, analista de TrustedSec, una empresa consultora de seguridad informática. “Si estuvieras grabando esta conversación, podrías introducirla en el software y teclear lo que quisieras que dijera, y reproduciría mi voz diciéndolo”.

spinner image cartoon of a woman holding a megaphone

¿Has visto este fraude? 

  • Llama a la línea de ayuda gratuita de la Red contra el Fraude, de AARP al: 877-908-3360 o repórtalo en el Mapa de Rastreo de Estafas, de AARP (en inglés).
  • Inscríbete para recibir alertas de vigilancia gratuitas que ofrecen más consejos para evitar fraudes.

Si la persona que escucha hiciera preguntas, la IA tiene el potencial de crear respuestas en la voz de Hamerstone que tendrían sentido para el oyente.

“Es increíble verlo”, dice. “No se puede decir. Suena igual que la persona. … Es mucho más difícil distinguir qué es real y qué es falso”.

Member Benefit
Entretenimiento

Paramount+

10% de descuento en cualquier plan de Paramount+

See more Entretenimiento offers >

Contraatacar con inteligencia artificial

Los gobiernos se esfuerzan por seguir el ritmo de esta tecnología en rápida evolución. A finales del 2023, la Casa Blanca emitió una orden ejecutiva en la que pedía una mayor supervisión federal de los sistemas de IA. La tecnología, señalaba, “posee un potencial extraordinario tanto de promesas como de peligros”. Esto llevó a la creación del Instituto de Seguridad de la IA de Estados Unidos en el ­Departamento de Comercio para “mitigar los riesgos que conlleva el desarrollo de esta tecnología que define generaciones”, en palabras de la secretaria de comercio, Gina Raimondo.

Resulta que la IA puede ser nuestra mejor herramienta para contrarrestar el uso malicioso de la IA.

La empresa de Benishti desarrolla software de IA que detecta y previene intentos de suplantación de identidad y ataques de secuestro cibernético a gran escala. La IA también es una herramienta clave para detectar transacciones sospechosas en tu banco, por ejemplo, señalando cargos inusuales en tu tarjeta de crédito y bloqueando llamadas y mensajes de texto fraudulentos.

spinner image una mano sosteniendo un teléfono con un delincuente enmascarado en la pantalla
FOTO ILUSTRACIÓN: TYLER COMRIE (FOTO: GETTY IMAGES)

El problema, según Craig Costigan, director general de Nice Actimize, una empresa de software que desarrolla tecnología para detectar y prevenir el fraude financiero, es que “la mayoría de estas estafas y fraudes los realizan personas que utilizan exactamente las mismas herramientas que nosotros, pero no tienen por qué atenerse a las normas”.

Clayton LiaBraaten, asesor estratégico de Truecaller, afirma que la tecnología de IA también se utiliza para combatirlas las llamadas automatizadas. “Si vemos números de teléfono que generan cientos de miles de llamadas en pocos minutos, nuestros modelos identifican estos patrones como sospechosos. Eso nos da una indicación muy temprana de que un ­delincuente probablemente sea el responsable de esas llamadas”.

Truecaller responderá y detectará llamadas en busca de estafas y acaba de presentar una nueva tecnología, el AI Call Scanner, que puede determinar si la voz de una persona que llama está generada por IA. Advertirá a los usuarios mientras hablan por teléfono que la llamada es sospechosa.

Los bancos también utilizan la IA predictiva. La empresa de Costigan, Nice Actimize, crea software basado en IA que las instituciones financieras utilizan para evaluar grandes cantidades de datos y detectar anomalías en los patrones de los individuos, explica. “Podría ser que alguien retira $50,000, que es una cantidad inusual. Podría ser la ubicación de la dirección IP. ¿Por qué la transacción se realiza en Londres?”.

Lo que posiblemente sea más alarmante es la clonación de la voz en un sector que durante tanto tiempo ha utilizado la confirmación verbal para autorizar las transacciones, afirma Costigan. Los delincuentes “pueden llamar y decir: ‘Hola, transfiere este dinero por mí’. Y esa voz suena exactamente como tú. Eso es un problema actualmente”.

Los bancos están considerando ir más allá de la confirmación por voz, por lo que “es posible que también te hagan una pregunta de seguimiento, como cuál es tu color favorito”, dice Costigan. “Puede que ahora incluso exijan algo adicional que valide tu identidad”.

Los consumidores tienen un papel que desempeñar para protegerse, dice Benishti, comprendiendo que “no pueden confiar al 100% en la comunicación, especialmente en la que no es solicitada”. Los que luchan contra el fraude deben estar preparados para ajustar sus estrategias, ya que los estafadores son “tecnólogos muy astutos y psicólogos consumados”, con técnicas en constante evolución, afirma LiaBraaten. “Es el juego del gato y el ratón”, afirma. “Solo tenemos que mantenernos informados”.

Cómo protegerte mientras la inteligencia artificial impulsa estafas más sofisticadas

No te fíes del identificador de llamadas. Si recibes una llamada de una empresa, cuelga y busca el número de la compañía (en el caso de un banco, por ejemplo, aparecerá en tu estado de cuenta) y luego llámalos tú a ellos. Según la FTC, sea cual sea el argumento, cualquiera que te pida que le pagues con una tarjeta de regalo es un estafador.

Piensa antes de hacer clic. Nunca hagas clic en un enlace de un correo electrónico o un mensaje de texto sin confirmar que proviene de una fuente legítima. Hoy en día, los delincuentes pueden elaborar mensajes de aspecto en extremo sofisticado, así como sitios web falsos que imitan de forma convincente a los reales.

Considera la posibilidad de elegir una palabra segura para tu familia. Compártela solo con miembros de tu familia u otras personas de tu círculo íntimo. Si alguien llama y dice ser un nieto, por ejemplo, puedes pedir la palabra o las palabras de seguridad (patito de goma, Pedro Picapiedra, o lo que sea), y si la persona que llama no las sabe, es claro que es una estafa.

spinner image una mano de un robot haciendo clic en un ratón de computadora
FOTO ILUSTRACIÓN: TYLER COMRIE (FOTO: GETTY IMAGES)

Llama a tu “nieto” en crisis. Si no tienes una palabra de seguridad y tu supuesto nieto o hijo llama diciendo que hay una urgencia médica o alguna otra crisis (a veces quienes llaman dicen que han sido secuestrados), pueden añadir que su teléfono está estropeado y por eso no puedes llamarlos. Detente un momento, respira (los delincuentes tratan de ponerte nervioso para perturbar tu pensamiento racional) y dile que quieres intentar devolverle la llamada de todos modos. Lo más probable es que tu verdadero nieto conteste, ileso y desconcertado por tu preocupación.

No hagas clic en anuncios para descargar software. La FTC dice que si ves un anuncio de software que despierta tu interés, en lugar de hacer clic en un enlace, ve al sitio web de la empresa escribiendo su dirección. Si lo buscas en línea, la agencia advierte: “recuerda que los estafadores también colocan anuncios en los motores de búsqueda”. Aparecerán en la parte superior de la página de resultados de búsqueda y puede que tengan una etiqueta que diga “Anuncio” o “Patrocinado”. Desplázate hasta abajo para llegar a los resultados de la búsqueda”.

Protege tu información personal. Para evitar el robo de identidad, ten cuidado con revelar tu nombre completo, tu domicilio, tu número de Seguro Social, información sobre tarjetas de crédito y datos bancarios, así como otros detalles personales. Por supuesto, no los compartas con alguien a quien solo conozcas por correo electrónico o mensajes de texto.

Informa a los demás. Informa a tus seres queridos sobre las estafas más recientes y los consejos arriba mencionados.

Denuncia las estafas. Si detectas una estafa o has sido el blanco de una, denúnciala a la policía, así como a la FTC en reportfraud.ftc.gov. Cuanta más información tengan las autoridades, mejor podrán identificar patrones, relacionar casos y, en última instancia, atrapar a los delincuentes.

Anuncios falsos, inteligencia artificial falsa

Merece la pena jugar con un chatbot para hacerse una idea del potencial de la tecnología (y es bastante divertido). Pero ten en cuenta que los ciberdelincuentes anuncian herramientas de IA en redes sociales y motores de búsqueda con enlaces que descargarán malware en tu computadora si haces clic en ellos, advierte la Comisión Federal de Comercio (FTC).

Algunos son sitios falsos, señala la FTC, pero “algunos anuncios de verdad te llevan al software real y descargan el programa malicioso a través de una ‘puerta trasera’, lo que hace difícil saber que te piratearon. Entonces, los delincuentes podrían robarse tu información y venderla a otros piratas en la red oscura, u obtener acceso a tus cuentas en línea y estafar a otros”.

También puedes denunciar las estafas a la línea de ayuda de la Red contra el Fraude, de AARP, al 877-908-3360. Es un recurso gratuito, con especialistas en fraude capacitados que brindan apoyo y orientación sobre qué hacer a continuación y cómo evitar estafas en el futuro.

Unlock Access to AARP Members Edition

Join AARP to Continue

Already a Member?