top of page

Inteligencia Artificial: arma de doble filo

Actualizado: 21 may 2023

Mucho se ha hablado en el último año sobre la Inteligencia Artificial, una tecnología en rápida evolución y que ha estado bajo investigación durante décadas.



Pixabay


Hemos visto la presentación de chatbots que pueden escribir artículos científicos, resúmenes legales y noticias, enviando escalofríos a la columna vertebral de cada

científico, abogado y periodista.


Pero, ¿realmente deberíamos preocuparnos? Por otro lado, algunos postulan que, si se usa adecuadamente, la IA puede ser una revolución para la educación, el periodismo, la ciencia y otras áreas del conocimiento humano. La presidenta de la FTC, Lina Khan, dijo recientemente que estas nuevas tecnologías pueden ofrecer una innovación crítica, pero también “impulsar el fraude y automatizar la discriminación”.


También preocupa el sesgo potencial en los datos que suministra, así como el uso controvertido de derechos de autor y material creativo para educar, entre otros temas.

La Casa Blanca ya se ha comunicado con los directores de Silicone Valley, para que tengan cuidado con el desarrollo de los chatbots.


Dudar de todo


Héctor Palacios, científico investigador de ServiceNow Research, trabaja en fundamentos e investigación aplicada en Inteligencia Artificial. “Tenemos textos que parece escritos por humanos, pero no lo son”, dice . Estos chats son programas llamados modelos de lenguajes, aunque otros les dicen “Loros Estadísticos”. Al final, se basan en data.


El asunto es motivo de preocupación y se pregunta quién tiene la razón. “Es un programa que tiene que ver com matemática. Son tan sofisticados que a veces no sabemos qué es lo que pasa”.


Recuerda que esta ciencia viene desde hace unos 70 años y “se conecta mucho con quienes somos”. Pero alerta que es un sistema reactivo, que nos da lo que esperamos de la data.


“Tenemos que pensar en el costo de cometer un error. Estas técnicas pueden ser buenas para una persona, pero no para la otra”. Recuerda que hay gente que puede no tener mucho conocimiento sobre el tema que la aplicación está escribiendo, aunque otras quizá si lo tienen.


“El riesgo es que esta máquina puede generar texto, pero puede manipular y polarizar. Hay un algo que queda perdido en el texto. A veces alguien puede decir ‘esto me lo envió un humano’ y no es cierto”.


Palacios compara lo que estamos viviendo con la Revolución Industrial. “Es una cosa nueva que va a generar poder, pero no tengo idea de lo que voy a hacer con esto”.


Cree que tendemos a magnificar el impacto de estas cosas, pero debemos mantener la vista en asuntos pequeños, como los emails. “Es importante dudar de todo lo que se vea o se lea”, recomienda.


Un espejo que nos refleja



“Quienes pensaron cómo la inteligencia artificial podía ayudar a la gente, eran los escritores de ciencia ficción, y ahora es realidad”, reflexiona Chris Dede, quien es investigador principal de la Escuela de Graduados en Educación de Harvard.


El también director de Investigación del Instituto Nacional de Inteligencia Artificial para el Aprendizaje de Adultos y la Educación en Línea, requerda que en algunas historias, la IA se sale de control y se mete en problemas. “Por ejemplo, en 2001 Odisea del Espacio, se va en contra de los humanos; pero en Viaje a las Estrellas es un aliado”.


Explica que hay especialistas de cáncer que tienen socios de IA. Ellos pueden revisar mil quinientas revistas diariamente, para ubicar a los pacientes que tienen casos similares; pero usted no quiere que la IA tome decisiones sobre su caso, porque eso queda en manos de la sabiduría profesional y humana del doctor.


Dede alerta que no es una inteligencia humana, “es una inteligencia alienada”. Sin embargo, también cree que el total es más que la suma de las partes. “Combinando ambos elementos, se pueden lograr cosas que no se podrían lograr con uno solo”.


Apunta a conseguir carreras profesionales productivas, assitencia para los intructores o para líderes. “Si usted está enseñando la puede usar para tutorías o trabajo con cada estudiante”, aconseja. Eso puede darle más tiempo a los profesores.


“Esta herramienta no sabe sobre la cultura o la ética, pero si lo aprovecho puede ser un mejor instructor, porque puede hacer muchas cosas rutinarias mientras el ser humano hace cosas mejores. Así fue con la revolución agrícola y la revolución industrial”.


Podemos crear exámenes de alto nivel para entrar a Harvard o aplicar para un empleo.

“Es como un loro, pero también es un espejo que refleja lo que ve de nosotros o de la sociadad. Va a mostrar nuestros prejuicios. Tenemos que vernos a nosotros mismos y cambiar eso”.



Pixabay


Aconseja a sus estudiantes: “Ustedes pueden usarlo y si son inteligentes no me voy a dar cuenta. Pero si va a un mpleo, su superior va a revisar lo que hizo. Si encuentra que su labor está basado en IA, su empleador va a preferir usarla antes que a usted y perderá su trabajo”.

Agrega que los estudiantes deben entender que se están haciendo trampa a sí mismos.

“Usted no puede entender sobre familia si no tiene familia, este recurso no puede entender conocimientos como esos”.


Revela que la Inteligencia Artificial no puede sumar algo a lo que se le ha dado. “Puede hacer cosas impresionantes, pero a la vez está limitado”. Y agrega: “No creas que la IA entiende lo que te está suministrando”.


Reportar las fallas


Sean McGregor es doctorado en aprendizaje automático, fundador de Responsible AI Collaborative, líder consultor técnico de IBM Watson AI XPRIZE y se desempeña como desarrollador de la base de datos de incidentes de Inteligencia Artificial.


Refiere episodios en los cuales el recurso se ha salido de control, como una chica virtual de Microsoft que declaró su amor a Hitler. En Corea del Sur también fue cancelado un chatbot donde empezaron a surgir discursos de odio.


Presenta otros casos, como el de un auto que fue multado por una infracción que cometió un peatón, cuya camisa mostraba un número similar a la matrícula del vehículo.


También hay otros casos más dramáticos, como un Mickey Mouse con un arma generado por IA o un palestino arrestado en Israel, después de que Facebook tradujo su mensaje de “Buenos días” como “Ataquen”.


El especialista se pregunta: “¿Cómo podemos cambiar la historia de la Inteligencia Artificial para que no se repita? “Para que de aquí en adelante sea más segura y tenga menos sesgos?”

Ejemplifica con la historia de la aviación, cuya seguridad se ha incrementado al aprender de los accidentes.


“Necesitamos que todas las culturas, idiomas y geografías colaboren, para asegurar que la inteligencia artificial nos beneficie a todos”. Su organización acepta reportes de incidentes en 132 idiomas, para contribuir a mejorar el recurso.


“No es magia ni una máquina fuera de control. Es algo creado por la gente. Pero nunca fallen en pensar atención”, concluye.



20 visualizaciones0 comentarios

Entradas Recientes

Ver todo
bottom of page