“Mucho se ha hablado en el último año sobre la Inteligencia artificial, una tecnología en rápida evolución que ha estado bajo investigación durante décadas. Hemos visto “chatbots” (robots productores de textos) que escriben artículos científicos, resúmenes legales y noticias, provocando escalofríos en científicos, abogados y periodistas. Pero ¿realmente deberíamos preocuparnos?, se preguntó Pilar Marrero, moderadora del encuentro de Ethnic Media Services (EMS) del 5 de mayo en el que se trató el tema de la inteligencia artificial. Por otro lado, algunos postulan que si la IA se usa adecuadamente podría generar una verdadera revolución en la educación, el periodismo, la ciencia y otras áreas del conocimiento. La presidenta de la Comisión Federal de Comercio, Lina Khan, dijo recientemente que la inteligencia artificial puede ofrecer una innovación crítica, pero también impulsar el fraude y automatizar la discriminación. Entonces ¿estamos frente a una utopía o una distopía?»
La inteligencia artificial y la ética
El primer disertante fue Héctor Palacios, científico del Service Now Research, que trabaja en la investigación aplicada de IA. Palacios comenzó preguntándose: “¿Quiénes tienen razón? ¿Aquellos que pronostican que la IA es un peligro o los que dicen que puede ser una herramienta? Para eso, debemos definir qué significa IA para esta generación…”
Y explicó que “hoy tenemos textos que parecen escritos por humanos pero no lo son; se trata de un programa muy sofisticado de computación y una clase de lenguaje que viene de las matemáticas. Son programas que se llaman modelos de lenguajes o loros estadísticos, que repiten conclusiones y están basados en data. Sin embargo, el texto que estos programas producen, pueden no contener todas las realidades. De hecho, tenemos una máquina que puede generar textos pero también manipularse y aumentar la polarización. Sin embargo, da miedo que esos programas puedan generar variaciones de lo que se puede decir. Por lo tanto, tenemos que cambiar la forma de interactuar con el texto, haciéndolo de un modo más crítico”.
Y Palacios rememoró que “la semana pasada hubo una reunión de los líderes de Sillicon Valley con el presidente Joe Biden en la Casa Blanca. Y Biden les pidió que fueran éticos, responsables y transparentes con el desarrollo de productos de inteligencia artificial… Biden comparó este momento de la IA con la Revolución Industrial; los tiempos en donde alguien podía comprarse un motor o un auto y eso implicaba un poder nuevo que no sabía cómo usarse. Luego, con el paso del tiempo, la revolución industrial cambió el mundo. Y hoy estamos en un momento parecido. Creo que tendemos a magnificar el impacto negativo de estas cosas; pero no sabemos lo que le viene a la humanidad ni cómo será nuestra interacción con las máquinas”.
“LA SEMANA PASADA HUBO UNA REUNIÓN DE LOS LÍDERES DE SILLICON VALLEY CON EL PRESIDENTE. Y BIDEN LES PIDIÓ QUE FUERAN ÉTICOS Y TRANSPARENTES CON EL DESARROLLO DE INTELIGENCIA ARTIFICIAL… BIDEN COMPARÓ ESTE MOMENTO DE LA “IA” CON LA REVOLUCIÓN INDUSTRIAL; TIEMPOS EN DONDE ALGUIEN PODÍA COMPRARSE UN MOTOR O UN AUTO Y ESO IMPLICABA UN PODER NUEVO QUE NO SABÍA CÓMO USARSE. Y HOY ESTAMOS EN UN MOMENTO PARECIDO. CREO QUE TENDEMOS A MAGNIFICAR EL IMPACTO NEGATIVO DE ESTAS COSAS”.
HÉCTOR PALACIOS
La inteligencia artificial y el humanismo
Chris Dede, graduado Harvard y director asociado de investigaciones en el National AI Institute for Adult Learning and Online Education, comenzó su exposición explicando que “en Estados Unidos, de todos los desarrolladores que se especializan en IA, sólo un mínimo porcentaje se ocupa de la educación. Los demás están en temas relacionados con la medicina, la cyberseguridad o la agricultura… La gente que pensó en estos institutos nacionales de IA que pueden ayudar a la sociedad, han sido los escritores de ciencia ficción del pasado”.
Y Dede afirmó que “según la prensa, hay dos tipos de ciencia ficción sobre la inteligencia artificial. En una, se trata de un robot que se vuelve independiente y al que no pueden controlar los seres humanos. Es el caso de la película “2001 Odisea del espacio”, donde la IA se enloquece contra los astronautas. La otra versión es donde IA es un compañero o aliado de los humanos; como en la película “Star Trek”, donde Deyra es un androide que ayuda al capitán Picard haciendo proyecciones matemáticas. Hay oncólogos especialistas en cáncer que tienen socios en IA, y por eso mismo pueden revisar 1500 revistas diariamente para ver los récords médicos de pacientes similares. Pero nunca querríamos que la IA tome las decisiones sino el doctor, que sabe lo que significa el dolor y la muerte; algo que la IA desconoce”.
Continuó diciendo que “una de las cosas que hace este instituto, es ayudar a la gente a tener carreras productivas, virar la asistencia para los instructores y asistencia IA para líderes. Si estás enseñando o entregando conocimiento a los estudiantes, vas a tener tutorías y encontrar un buen compañero para trabajar con cada estudiante, recibiendo con mucha data y haciendo recomendaciones. Hoy, el ser humano está rodeado por estos sistemas. Lo que puede hacer la IA es reducir el trabajo mecánico para que yo sea un mejor instructor. No creo que haya que cambiar lo que los humanos estamos aprendiendo, sino optimizarlo con la IA”.
-¿Cómo hacemos para que los estudiantes no hagan los exámenes con el programa de inteligencia artificial generativa (IAG)?
-Al principio de clases, siempre me gasto un tiempo en hablar de IAG con mis alumnos. Les digo que, incluso si lo usan bien, yo no me voy a dar cuenta. Pero un día van a salir a un trabajo o irán a una entrevista y les pedirán que diseñen una tarea o un plan. Y quien los entreviste va a meter ese diseño en una computadora. Si ese plan no es mejor que IA, no los van a contratar, porque IA es gratis. Así que si no hacemos el trabajo mejor de lo que lo haría la IAG, entonces vamos a perder laboralmente. Por eso, la idea es usar IA como un socio y no como un sustituto. Hay gente que usa IAG para escribir cartas de recomendación o cosas así, lo que me parece un horror.
-¿Puede la IA convertirse en más inteligente que nosotros y volverse una amenaza?
-Estos modelos de IA no entienden las palabras, sólo manejan símbolos de manera limitada, y siempre de acuerdo a la data que se les suministre. Cuando decimos que alguien hace algo inteligente, es que ha hecho algo superador. La IA puede hacer cosas impresionantes a nivel data pero está muy limitado en otros campos; no va a volverse conocedor ni tomar una consciencia ni tendrá ganas de deshacerse de los seres humanos. La gente se va a beneficiar con su ayuda.
“HAY ONCÓLOGOS ESPECIALISTAS EN CÁNCER QUE TIENEN COMO SOCIOS A LOS PROGRAMAS DE INTELIGENCIA ARTIFICIAL, Y POR ESO MISMO PUEDEN REVISAR 1500 REVISTAS DIARIAMENTE PARA VER LOS RÉCORDS MÉDICOS DE PACIENTES SIMILARES. PERO NUNCA QUERRÍAMOS QUE LA INTELIGENIA ARTIFICIAL TOME LAS DECISIONES SINO EL DOCTOR, QUE SABE LO QUE SIGNIFICA EL DOLOR Y LA MUERTE; ALGO QUE NO SABE EL PROGRAMA DE IA… LA IDEA ES USAR LA IA COMO UN SOCIO Y NO COMO UN SUSTITUTO”.
CHRIS DEDE
La IA y los idiomas de la Tierra
Finalmente llegó el turno de Sean McGregor, fundador de Responsibile AI Collaborative, técnico y consultor principal para IBM Watson AI XPRIZE y desarrollador de la base de datos AI Incident.
McGregor inició diciendo que “hace poco, Microsoft borró a una joven luego de que ella hubo confesado ser un “chatbot” que manifestaba su amor a Hitler. Lo mismo pasó en Corea con un “chatbot” que eliminaron por hacer discursos de odio. ¿Por qué ocurre esto? ¿No ha pasado ya? Los que no recuerdan el pasado, están condenados a repetirlo. La pregunta es, cómo recordamos el pasado relacionado con la inteligencia artificial y cómo lo podemos cambiar para que sea más seguro y con menos sesgos”.
Y McGregor tomó el ejemplo de la aviación; que “mediante la inteligencia artificial y la base de datos aprendió de los accidentes que se produjeron en el pasado y así pudo prácticamente suprimirlos en el presente. Hoy, nosotros queremos hacer la industria de la IA mucho más segura. Y para eso trabajamos con voluntarios y ONG, para organizar bases de datos. La mayoría somos ingenieros trabajando en estos temas. Estamos aceptando reportes en 132 lenguas distintas, utilizando estos mensajes para traducir, aunque muchas veces las traducciones no son perfectas”.
Y el fundador de Responsibile AI Collaborative mencionó un ejemplo. “Hace poco, una persona fue arrestada por una equivocación del traductor artificial, donde un saludo fue confundido con la confesión de un atentado. Los lugares donde más se producen estos daños, es muy lejos de donde desarrollamos este sistema de traducción. Por eso es importante que estos errores se reporten en todo el mundo, para que podamos fortalecer la inteligencia artificial a nivel global. Me gustaría mencionar que, hay problemas importantes relacionados con las bases de datos. La data en sí misma no tiene sesgos, pero detrás puede haber un ingeniero tomando decisiones. Las máquinas de IA se crean por las personas y el mundo está cambiando de manera vertiginosa”.
“HACE POCO, MICROSOFT BORRÓ A UNA JOVEN LUEGO DE QUE ELLA HUBO CONFESADO SER UN “CHATBOT” QUE MANIFESTABA SU AMOR A HITLER. LO MISMO PASÓ EN COREA CON UN “CHATBOT” QUE ELIMINARON POR HACER DISCURSOS DE ODIO. ¿POR QUÉ OCURRE ESTO? ¿NO HA PASADO YA? LA PREGUNTA ES, CÓMO RECORDAMOS EL PASADO RELACIONADO CON LA INTELIGENCIA ARTIFICIAL Y CÓMO LO PODEMOS CAMBIAR PARA QUE SEA MÁS SEGURO Y CON MENOS SESGOS”.
SEAN MC GREGOR