5 preguntas para pensar en la inteligencia artificial desde Latinoamérica – Por Laura Vásquez Roa

Cottonbro studio para Pexels
1.900

5 preguntas para pensar en la inteligencia artificial desde Latinoamérica

Por Laura Vásquez Roa

Esta nota no fue escrita por una inteligencia artificial. Tampoco es un listado de las muchas opciones que tiene el ChatGPT o las herramientas que otras inteligencias artificiales (IA) tienen y nos estamos perdiendo. De hecho, esto es algo más parecido a un llamado a la reflexión, a través de las preguntas que no nos estamos haciendo, frente a esta supuesta revolución tecnológica y sus efectos en lugares del mundo como América Latina.

Desde principios de 2023, los usuarios de internet no paran de comentar y calificar como una revolución la aparición de ChatGPT. Aunque las IA y los chatbots existen desde mediados del siglo XX, el lanzamiento de este chat en noviembre de 2022 ha generado una gran conmoción. En enero de este año, solo dos meses después de su lanzamiento, ChatGPT llegó a los 100 millones de usuarios activos (para comparar, TikTok se tomó nueve meses en llegar a esa cifra y ya era un récord). Pero no solo es este chat el que tiene entusiasmada a tanta gente. Recientemente circularon fotos del Papa Francisco con ropa que no es suya o a Donald Trump en una detención policial que nunca ocurrió así. Fueron imágenes creadas por Midjourney, otra IA, que no correspondían con la realidad, pero parecían como si lo fueran.

Empecemos por el principio.

¿Cómo se entrenó al ChatGPT y por qué nos debe importar?

Un chatbot es un programa informático basado en la inteligencia artificial, capaz de mantener una conversación con una persona sobre un tema específico. Es decir, imita, o intenta imitar, el lenguaje humano para entregar información. Su existencia se origina en el MIT (Instituto de Tecnología de Massachusetts), en Estados Unidos, cuando Joseph Weizenbaum desarrolló el software Eliza en 1966, un programa para simular la interacción humana a través de preguntas y respuestas.

Más de medio siglo después, en 2015, se fundó la empresa OpenAI como una ONG dedicada a la investigación en tecnología y sin ánimo de lucro. Al poco tiempo, recibió una fuerte inversión de dinero de Microsoft y volcó sus investigaciones en el desarrollo de una IA muy potente, el ChatGPT.

Este chatbot se basa en un modelo entrenado con grandes cantidades de texto de distinta naturaleza, para realizar tareas relacionadas con el lenguaje y la generación de nuevos textos a partir de preguntas. Este modelo base es lo que significan sus siglas GPT: Generative Pre-trained Transformer, lo que en español traduciría como transformador preentrenado generativo. El chat genera algo que no existía, a partir de los datos que tomó OpenAI de distintas fuentes. Esto lo logra encontrando patrones y similitudes a través de “redes neuronales”.

No es claro quiénes fueron sus entrenadores, más allá de desarrolladores de la empresa estadounidense OpenAI, por tanto, es de esperarse que su enfoque sea el de, posiblemente, hombres, mayoritariamente blancos, que trabajan en tecnología. Se sabe además que para depurar las bases de las que se alimenta el chat, contrataron una empresa de Kenia para que moderadores de contenido se expusieran a lo peor de internet por tan solo dos dólares por hora, algo muy lejano del sofisticado ambiente del Silicon Valley en California.

La algarabía alrededor de esta AI ha llegado a gran parte de los sectores de la sociedad en muy poco tiempo. El mismo Elon Musk, multimillonario intrínsecamente relacionado con la tecnología, hizo parte de OpenAI, pero desde 2018 se retiró. Ahora, con la popularidad de ChatGPT, anunció que está trabajando en un producto que sería su competencia, el TruthGPT (como la “verdadGPT”). La diferencia que Musk indica que tendría este producto, es que se dedicaría a “comprender el universo” y por tanto no sería una amenaza para la humanidad, porque “los humanos somos una parte interesante del universo”, según dijo en una entrevista con FOX News. Estas declaraciones y los intereses políticos de fondo nos llevan a la siguiente pregunta.

¿Por qué debemos hablar de política cuando hablamos de Inteligencia Artificial?

La relación entre la tecnología y el poder es inseparable desde que existe la creatividad humana para desarrollar herramientas. Esto no podemos olvidarlo. El reconocido filósofo francés, Bruno Latour, dedicó su carrera a estudiar la ciencia y la tecnología para resaltar el carácter sociopolítico en cada invento en donde el conocimiento científico es resultado de una compleja red de actores con muchos intereses. Por esto, al hablar de IA, voces expertas frente a la dimensión política de la tecnología nos han dejado inquietudes que más que buscar una respuesta única, quieren orientar lo que está ocurriendo con el desarrollo de herramientas como el Chat GPT y otras IA.

Natalia Zuazo, experta argentina en políticas tecnológicas, dice que usualmente se producen dos sentimientos con estas tecnologías son muy fuertes y ocurren al mismo tiempo: libertad y miedo. Por un lado, surgen temores ante la vigilancia, la supresión de algunos trabajos y los peligros para la humanidad. En el otro extremo, se comenta con júbilo que la tecnología nos dará la libertad al encargarse de tareas que no nos gusta hacer.

Para Zuazo, en entrevista con el podcast El Hilo, todas las tecnologías en la historia han producido esta doble reacción, pero lo que ocurre en el medio de estos polos es lo que nos puede dar más pistas de lo que realmente implican estos desarrollos. Preguntarse por quién hace estas tecnologías, con qué intereses, qué presiones económicas están presentes, etc., hace parte de las preguntas que nos darán más luces sobre el alcance de herramientas como ChatGPT.

Estamos en el momento del embelesamiento con la IA, pero es momento de hacernos las preguntas incómodas

¿Qué tan revolucionario es realmente el ChatGPT?

Además de reconocer que los chtbots no son tan nuevos como parece, un punto para tener presente es que ChatGPT no es una tecnología madura y eso en buena medida es problemático. Como aún se encuentra en su etapa de investigación, este chat es gratuito y puede recibir tantas preguntas como desees. Su acceso es libre, sin regulación y no es del todo claro qué pasa con la información que le proveemos.

Esta herramienta aprende sobre lo que el usuario le corrige, usa entendimiento sobre lo que decimos y a partir de eso genera algo nuevo. Sin embargo, ChatGPT no tiene la capacidad de buscar información en Internet. Utiliza lo que aprendió de los datos de entrenamiento para generar una respuesta, lo que deja margen para el error. Uno muy grande, según muchas personas han reportado al hacerle consultas simples (datos históricos falsos, citas bibliográficas inventadas). Además, este chat tiene información limitada a eventos que ocurrieron antes de 2021.

Lo “revolucionario” de ChatGPT, para Juan De Brigard, coordinador de la línea de Autonomía y Dignidad de la Fundación Karisma en Colombia, más que la tecnología misma o lo que es capaz de hacer, es el hecho de que esté disponible para su uso de manera global. A su vez, la apertura de la herramienta y la inmensa recepción que tuvo es lo “revolucionario” (las comillas son suyas). Para él, esto nos obliga a enfrentar problemas emergentes (de noticias falsas y desinformación, de automatización, de pereza cognitiva, de desincentivar el pensamiento crítico) que de otra forma habríamos tenido más tiempo para resolver o al menos discutir democráticamente.

El hecho de que esta tecnología esté disponible hoy, sin regulación, seguramente producirá consecuencias negativas que luego tendremos que atender a través de marcos regulatorios.

¿Qué impacto tienen estas IA en regiones tan desiguales como América Latina?

América Latina es una de las regiones más desiguales del mundo. Pensar en cómo se adopta la tecnología, a quién beneficia y sobre quiénes puede producir efectos negativos es urgente. Las regulaciones de los gobiernos son particularmente necesarias en esta región, pues estas tecnologías pueden aumentar la desigualdad, como indican expertos en la materia. Los sesgos con que fueron construidas estas IA, por ejemplo, pueden hacer más profundos el sexismo, el racismo y la xenofobia, y reforzarse con usuarios que la alimenten con esta misma óptica. Además, al automatizar tareas desde una herramienta creada en países ricos, se puede dejar de lado la diferencia y las necesidades de otras poblaciones del mundo con menos recursos.

Para Juan De Brigard es indispensable recordar en todo momento que la tecnología es un reflejo de nosotros mismos y en ese sentido carga con todos nuestros desperfectos también. “ChatGPT no provee información verificada ni infalible, el punto de partida es que no es confiable. Además, es muy importante recordar que es una herramienta que puede contribuir a automatizar ciertos procesos o ciertas tareas, pero que no puede reemplazar a quien la utiliza y en la medida en que sigamos utilizándola nos toparemos también cada vez más con sus limitaciones”, explica.

¿Cómo lidiar con los peligros de las IA como ChatGPT o Midjourney?

Es demasiado pronto para responder con certeza a la pregunta de las implicaciones que tiene este tipo de IA, pero ya hemos visto que para muchos usuarios es difícil reconocer qué es real y qué no en Internet.

Juan De Brigard cree que los efectos más preocupantes, por ahora, tienen que ver con su potencial para producir información y noticias falsas de manera masiva e inmediata, y con sus consecuencias (aún no reveladas) en materia de educación, pues podría implicar que los estudiantes dejen de desarrollar habilidades necesarias para el pensamiento crítico. “Estos riesgos son globales. Específicamente para nuestro continente, deberíamos atender al hecho de que estas herramientas de IA están entrenadas usando datos e insumos que (mayoritariamente) provienen del Norte global, lo que implica un sesgo en sus respuestas a favor de este tipo de información y puede invisibilizar o ignorar información que en nuestro contexto es particular y relevante”, comenta.

Para evitar que estas limitaciones de la herramienta tengan consecuencias dañinas para las personas, es importante mantener una distancia crítica sobre sus capacidades, hacernos preguntas más allá del asombro o el temor, y establecer regulaciones desde marcos democráticos.

Rolling Stone

 

Más notas sobre el tema