Cómo protegerse contra el fraude y la manipulación de la inteligencia artificial

La vida de mi padre estuvo en peligro cuando fue víctima de fraude en internet. Toda su vida fue diabético tipo 2, dependiendo de un régimen de medicamentos estrictos. Sin embargo, los anuncios en internet que ofrecían curas mágicas lo atrajeron con anuncios leyendo: «¡Lo que su médico no le dice: la investigación independiente expone a las farmacias!» Impulsado por la esperanza de una cura, mi padre cometió un grave error: suspendió sus medicamentos vitales.

Afortunadamente, su médico y yo pudimos intervenir antes de que sucediera lo peor. Esta es una narrativa demasiado común de seres queridos vulnerables que son víctimas de la manipulación. A menudo asumimos que las personas mayores son las únicas víctimas de estafas, pero todos somos víctimas potenciales. Eso es cierto en un nuevo mundo donde las estafas pueden ser impulsadas por el crecimiento exponencial de la inteligencia artificial (IA). Incluso los más inteligentes entre nosotros son cada vez más vulnerables al fraude y la manipulación.

A medida que la tecnología evoluciona, también lo hacen las tácticas de explotación empleadas por los estafadores. Uno de los últimos ejemplos es la clonación de la voz. Imagínese que recibe una llamada desesperada del número de teléfono de un ser querido. La voz le tiembla mientras suplica su ayuda. Cada inflexión y tono se imita a la perfección, haciéndolo difícil de colgar. El pánico y la desesperación que usted escucha al otro lado de la línea hace que responda como lo haría cualquier persona: ayudando.

Pero podría ser un riesgo inmenso. A principios de este año, un hombre usó voces generadas por IA para engañar a al menos ocho víctimas por cientos de miles de dólares en solo tres días. Este ejemplo muestra el poco control que tenemos sobre los avances de la IA.

El engaño de la IA también se está infiltrando en nuestras esferas más íntimas. Ahora tenemos CupidBot, una aplicación impulsada por IA dirigida a los hombres para conocer prospectos románticos. La compañía les promete ayudarles a “llegar a la parte buena» sin hacer nada – la aplicación automáticamente empieza conversaciones con prospectos, planea citas, sin que la otra persona sepa que en realidad está interactuando con IA. CupidBot desdibuja la línea entre la interacción humana y el engaño automatizado. A pesar de los posibles riesgos de esa manipulación, la creación de aplicaciones como esta – y más ampliamente, la IA que se hace pasar por humanos sin una divulgación clara – es actualmente legal.

La influencia de AI también se ha amplificado en el escenario nacional, como lo demuestra la reciente condena de la Casa Blanca del alarmante aumento de imágenes falsificadas por IA. Una imagen falsa que muestra el bombardeo del Pentágono se volvió viral y circuló en las redes sociales tan rápido que momentáneamente provocó una pérdida de casi $500 millones de dólares en el mercado de valores. El potencial de la desinformación generada por IA para impactar en la sociedad y el gobierno es un territorio desconocido para todos nosotros. Estos casos son meros atisbos de los peligros facilitados por la IA, que van desde tácticas de manipulación hasta graves riesgos para la seguridad nacional.

La regulación es necesaria para proteger a los consumidores, pero en este momento las personas son vulnerables a estas prácticas. Entonces, ¿cómo nos protegemos?

El primer paso es reconocer el problema. Debemos permanecer atentos a los signos reveladores de manipulación y engaño. ¿Está siendo presionado y se le dice que actúe rápidamente? ¿Se le pide que utilice métodos de pago inusuales? ¿Le están diciendo que divulgue información privada y confidencial? Al tener en cuenta estas señales de alerta, nos fortalecemos contra las estafas más comunes.

En segundo lugar, antes de dar información personal, enviar dinero, o compartir una publicación incendiaria, ejerza precaución y diligencia debida. Establezca una palabra o frase con su familia antes de compartir información privada. Póngase en contacto con la persona u organización para verificar la legitimidad de la solicitud. Verifique dos veces las imágenes que se comparten en línea vengan de medios confiable. Tomar medidas adicionales puede significar la diferencia entre convertirse en una víctima y mantener la seguridad financiera.

Finalmente, la carga no puede caer solo en los consumidores: necesitamos normas y pautas para una IA ética y, sí, regulaciones que se puedan hacer cumplir. Debemos elevar estas preocupaciones a los expertos en tecnología de todas las industrias y a los legisladores en los pasillos del gobierno. Regular la forma en que se puede usar la IA para engañar a los consumidores debería ser un objetivo a largo plazo para todos nosotros, sobre todo cuando vemos el aumento de esquemas nefastos en todo el país.

Hay una serie de pasos que los líderes tecnológicos y gubernamentales pueden tomar para ayudar, entre ellos el fortalecimiento de las protecciones de privacidad, garantizar una mayor transparencia de las herramientas impulsadas por IA y responsabilizar a las empresas por la mala conducta cometida en sus plataformas. Pero el cambio no ocurrirá a menos que lo exijamos.

La IA tiene un tremendo potencial para los avances en varios campos, desde la educación hasta la investigación científica. No podemos ignorar los impactos positivos, pero debemos abordar los daños de manera proactiva y garantizar salvaguardas sólidas para proteger a las personas y la sociedad. Juntos, debemos luchar por un futuro de progreso, tomando medidas para aprovechar los beneficios de la IA, mientras nos protegemos y creamos un mundo más seguro.


Marta Tellado es la directora ejecutiva de Consumer Reports. Marta es una del 1,6% de las directoras ejecutivas latinas en los EE. UU. y es una incansable defensora de los derechos del consumidor, especialmente de las comunidades marginadas.

Publicaciones relacionadas

Botón volver arriba

Descubre más desde HispanicLA: la vida latina desde Los Ángeles

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo