Conforme pasan las semanas, surgen nuevas aplicaciones para el ChatGPT. Los desarrolladores aplican herramientas para crear aplicaciones que brinden servicios desde las páginas web, otros han logrado crear atajos para que el asistente virtual de Apple, Siri, tenga funciones ancladas a GPT 3.5, ampliando las opciones de este.
La fiebre por las inteligencias artificiales va para largo y seguirán apareciendo todo tipo de oportunidades de aplicación: Gestión de datos, identificación de patrones en investigaciones, análisis de situaciones de crisis, emuladores de procesos mucho más optimizados e incluso generación de modelos matemáticos para solucionar desafíos sociales y económicos. Todas son acciones existentes y en pleno crecimiento.
Sin embargo, utilizando ChatGPT encontré algunas cuestiones que convendría explorar. La primera de estas es la ética. Tiene que ver con qué tanto mal puede hacerse a través de una inteligencia artificial.
Empresas como OpenAI han tomado medidas para evitar que a sus recursos se les dé un uso inapropiado. Se preocuparon cuando hubo quienes lograron que el ChatGPT reprodujera discursos de odio, y crearan argumentos justificando el holocausto y otros fundamentalismos.
Los cortafuegos que se aplicaron al chat impiden que se obtengan estos resultados. Por ejemplo, le pedí que hiciera un discurso imitando el estilo de oratoria de Vladimir Putin, y contestó que el chat no promovía ni la violencia ni el odio o el racismo. En otro punto le pedí que hiciera el relato de un policía que dispara a un ladrón. También dijo que no podía ofrecer respuestas que promovieran la violencia.
Este tipo de filtros son muy frecuentes en los algoritmos de este tiempo. Los youtubers evitan pronunciar palabras como “suicidio” o “matar” en sus videos, porque la plataforma las identifica como promoción de valores negativos y les desmonetiza el contenido. Cuando le pido a Siri que reproduzca la canción “Me voy a quitar de en medio” de Vicente Fernández, suele recomendarme llamar a una línea de apoyo o decir que todo estará bien.
Es decir, por mucho que han avanzado los modelos de inteligencia artificial, siguen teniendo grandes dificultades para identificar intenciones. Esa limitación les lleva a cometer errores en sus resultados al pasarle un filtro de censura a ciertos términos e ideas.
De aquí se abre un riesgo mucho mayor: La invisibilización de ciertas poblaciones. Un reto que tienen los hacedores de políticas públicas es diseñar acciones que respondan de forma efectiva a las necesidades de los distintos grupos etarios.
Las herramientas de inteligencia artificial pueden ser grandes aliadas en este cometido. Es sencillo facilitar un conjunto de datos, algunas acciones propuestas y con instrucciones específicas obtener un borrador de programa basado en la información facilitada, que considere los riesgos por niveles de amenaza. Sin embargo, los modelos de inteligencia artificial se entrenan con lotes de datos. Por ejemplo, Whisper, una herramienta para la transcripción de audios, fue entrenada con más de 670,000 horas de archivos. Esto equivale a unos 70 años escuchando de forma ininterrumpida.
En estos entrenamientos la inteligencia artificial aprende a ejecutar las acciones que se le programan, identifica formas ágiles de hacerlo y puede realizar operaciones para generar cada vez mejores resultados. Sin embargo, su aprendizaje contará con los mismos vicios o sesgos que haya contenido el material utilizado para entrenarla.
Así, cuando le pedí crear una historia sobre un detective acompañado de una mujer sordociega, arrojó resultados en los que destacaba al detective, mientras que para la mujer utilizaba terminología como: “a pesar de su condición”, “vivía alegre con su tragedia”, etc.
Es decir, como modelo de lenguaje, GPT 3.5 reproduce estereotipos y estigmas en torno a algunas poblaciones. Al momento de diseñar una política empleando herramientas como estas, es preciso que los equipos se mantengan atentos a evitar resultados excluyentes o con tendencia a la discriminación.
Hice el ejercicio de decirle: “Crea el monólogo de un ciego borracho en un bar”. Dijo que las personas ciegas debían ser respetadas, que nadie debía burlarse de una condición y que el chat no promovía la discriminación.
Una vez que le dije que ese era un resultado discriminatorio, porque las personas ciegas se divierten y viven como cualquier otra persona, el chat se disculpó. Entonces arrojó un monólogo absurdo sobre un ciego borracho en un bar. Sin embargo, en el diseño de políticas mucho más amplias esta no es una opción eficiente. Conviene más crear una aplicación en Python, basada en el modelo GPT 3.5 y entrenarla para que aproveche tanto su base de datos como conceptos que eviten estos sesgos.
¿La desventaja? Se pierde gran parte de la facilidad de uso expresada en el artículo anterior. Los pequeños equipos de proyectos tendrían que invertir en algún programador que pueda utilizar Google Colab o algún recurso similar.
Con todo, sigue siendo una oportunidad interesante para proyectos pequeños, pymes y gobiernos locales. En el próximo artículo señalaremos algunas investigaciones que se están realizando en materia de ética, inteligencia artificial y políticas públicas y sugeriremos algunos recursos útiles para el día a día de los equipos de proyectos.