- Home
- Quiénes escriben
- La inteligencia artificial que no vimos venir - Gabriela Sued
La inteligencia artificial que no vimos venir 1
Gabriela Sued
Estaríamos tuiteando, probando nuevos filtros en Instagram, o reflexionando sobre el uso de nuestros datos en línea cuando de repente, las inteligencias artificiales (IA) conversacionales irrumpieron en nuestra vida digital. Estas aplicaciones, conocidas como chatbots, producen textos e imágenes con un estilo similar al humano. Basta con darles algunas instrucciones simples en lenguaje natural, y en pocos segundos nos entregarán un texto o una imagen perfectamente construidos.
El chatbot que ha producido más interés hasta el momento es Chat GPT,2 desarrollado por la compañía independiente Open AI para generar una amplia variedad de textos, entre los que se incluyen artículos informativos, historias ficticias, descripciones de productos, respuestas a temas específicos, poemas y ensayos en varios idiomas. Puede hacerlo en varios idiomas, aunque el inglés y el español son sus lenguas más fuertes. Desde su puesta en marcha en noviembre de 2022 alcanzó rápidamente diez millones de usuarios activos diarios. Pero Chat GPT no está solo. Bing Chat, de Microsoft, permite acceder a resultados de búsqueda e información por medio de una conversación. Perplexity AI ofrece sus respuestas con referencias bibliográficas a las fuentes consultadas. Otros chatbots, como Dall E, Midjourney y Stable Diffusion, generan imágenes novedosas y de alta calidad, imitan estilos artísticos y reproducen diversas técnicas gráficas. En pocos segundos podríamos obtener la ilustración de un astronauta montado a caballo en el estilo pop de Andy Warhol. O podríamos editar una imagen existente mediante algunas instrucciones para modificar sus objetos, luces, filtros y colores. Las inteligencias artificiales conversacionales están entre nosotros, y llegaron para quedarse.
La IA, entendida como una tecnología diseñada para efectuar tareas cognitivas e informacionales similares a las que realizan los seres humanos, no es nueva. Desde sus inicios en la década de 1950, tuvo como propósito principal la creación de máquinas destinadas a interactuar con humanos en lenguaje natural. La primera de ellas, ELIZA, creada en 1966 por el profesor del MIT Joseph Weinzenbaum, fue diseñada para simular el comportamiento de una terapeuta transaccional. Todavía continúa en línea y es posible sostener una breve conversación con ella. Cuatro factores recientes han permitido la creación de chatbots masivos: grandes avances y caídas de costos de almacenamiento y procesamiento, nuevos conocimientos en técnicas de entrenamiento y aprendizajes de máquina, acceso a grandes cantidades de datos en línea e importantes inversiones de la industria tecnológica.
Las tecnologías orientadas a tareas intelectuales han generado percepciones, sentimientos e imaginarios contradictorios a lo largo de la historia. Los chatbots conversacionales no son una excepción: mientras que algunos los usan con fines lúdicos y novedosos, otros les temen y los consideran una amenaza. Las tensiones entre el optimismo y el pesimismo, entre el deseo y el temor, son inherentes a la evolución de la inteligencia artificial y sus aplicaciones.
Vale la pena entonces detenerse a plantear algunos interrogantes: ¿Cuál es la relación entre inteligencia artificial y creatividad? ¿Qué desafíos plantean los nuevos chatbots a la educación? ¿Podría un chatbot sustituir a un profesional de la información?3
Los chatbots pueden funcionar como apoyo en nuestro quehacer diario al brindarnos información, inspiración u orientación para resolver nuevas tareas. Tal vez los consideremos una distracción, o un entretenimiento. A lo mejor nos gusta desafiarlos con tareas complejas para saber si las harían mejor que nosotros. Algunos podrían pretender que un chatbot los reemplazara en sus tareas cotidianas. Desafortunadamente, otros podrían adoptarlos para ahorrar puestos de trabajo. Estos motivos abren diferentes sentidos acerca de sus usos, no siempre condenables, ni siempre aceptables.
Las tecnologías no son inherentemente buenas ni malas. Los chatbots no actúan de manera completamente autónoma. Su compleja ejecución es el resultado de la colaboración entre programadores, algoritmos, datos de aprendizaje y usuarios que los emplean en diversos contextos y con objetivos diferentes. Para no temerles, es fundamental comprender cómo funcionan, en qué pueden beneficiarnos, y cuándo constituyen un riesgo.
Si los chatbots pueden hacer bien sus tareas, es porque aprenden. Chat GPT, por ejemplo, funciona sobre una arquitectura de hardware distribuida denominada red neuronal artificial. Al igual que el cerebro, una red neuronal está formada por muchas partes pequeñas –neuronas artificiales representadas como funciones matemáticas– que trabajan en conjunto para procesar información y tomar decisiones. Las redes neuronales tienen una capa de entrada que recibe la información, una o más capas ocultas que la procesan, y una capa de salida que produce la respuesta de la red. Cada capa se conecta a la siguiente mediante pesos –representados como funciones matemáticas– que se ajustan mientras la red se entrena en el reconocimiento de patrones y la toma de decisiones. Cada aprendizaje implica un ajuste de pesos.4
Los chatbots se entrenan durante meses o años con millones de textos e imágenes procedentes de diversas fuentes, como libros, artículos de noticias, sitios web, conversaciones y otros recursos disponibles en línea.5 Si estos datos contienen ambigüedades o incorrecciones, las absorberán. Si en ellos existen sesgos que reflejan las inequidades de sexo, raza y clase, es muy probable que las reproduzcan. Si en Internet hay regiones, países y comunidades subrepresentadas, los chatbots no podrán darnos información precisa sobre ellas. Si nos parece que Internet es el reino de la previsibilidad y el sentido común, lo mismo pensaremos de los chatbots.
Aunque tienen acceso a millones de datos disponibles en Internet, los chatbots serán creativos solamente si sus usuarios los orientan hacia ese objetivo. Si les damos instrucciones obvias, caerán en el lugar común. Si les hacemos preguntas desafiantes, es posible que nos sorprendamos con respuestas creativas. Sin embargo, si les requerimos información especializada, es probable que sus resultados nos parezcan vagos o insuficientes.
¿Qué tan creativa es la inteligencia artificial?
Existen muchas definiciones de creatividad. Einstein, por ejemplo, decía que la creatividad es la inteligencia divirtiéndose. Sería más preciso decir que crear es producir intencionadamente novedades valiosas.6 No basta con producir un objeto o hecho original, sino que este debe tener alguna cualidad apreciable: la eficacia, la belleza, la gracia o la utilidad.
No siempre las resoluciones de nuevos problemas o proyectos son creativas. Por un lado, podemos resolverlos mediante un algoritmo: una secuencia de reglas o de operaciones prefijadas y ya conocidas. Por el otro, podemos optar por un camino heurístico, compuesto por procedimientos informales, azarosos e inventivos.7 Necesitamos pensamiento algorítmico para enviar un mail, pero requerimos el heurístico para formar vínculos interpersonales o movernos en una ciudad desconocida.
Las inteligencias artificiales conversacionales están entrenadas en pensamiento algorítmico, ya que generan respuestas basadas en estadísticas y en el reconocimiento de patrones en grandes conjuntos de datos.8 Por eso, la inteligencia artificial de los chatbots no es tan inteligente, ni tan artificial. No es tan inteligente porque no usa pensamiento heurístico. No es tan artificial porque la naturaleza de sus resultados depende de textos y preguntas producidos por humanos, con todas las posibilidades y limitaciones implicadas en dicha producción.
Un fantasma recorre las escuelas
La irrupción de los chatbots en la educación es uno de los temas más controvertidos al momento de escribir estas líneas. Sin embargo, no deberíamos sorprendernos tanto de sus posibles aplicaciones educativas, ya que gran parte de la educación actual se encuentra altamente tecnologizada. Es sabido que durante la pandemia por COVID-19 y la pospandemia las grandes empresas tecnológicas transnacionales han realizado importantes inversiones en el mercado educativo. Hace tiempo que las clases no son lo que solían ser: una conversación entre profesores y alumnos con el pizarrón de por medio. Desde hace años los buscadores, las enciclopedias en línea, las herramientas colaborativas de productividad, las aulas virtuales, las bibliotecas digitales, los traductores, los correctores automáticos de texto y las plataformas de video actúan como mediadores en esa conversación. En ese contexto, al que debemos agregar la disponibilidad pública de los chatbots y su amigable interfaz conversacional, se hace imposible evitar su uso, tanto por profesores como por estudiantes.
Suele decirse que si no puedes vencer al enemigo mejor unirse a él. Con Chat GPT los docentes podrían encontrar mejores consignas que la escritura de un ensayo. Por ejemplo, al solicitarle que diseñara una secuencia didáctica para enseñar el proceso de fotosíntesis en primer año de la escuela secundaria, el chat recomendó una actividad al aire libre, sin computadoras y sin chatbots. Quizá no sea lo más cómodo para profesores y escuelas, pero no se puede negar la creatividad y la evasión de la posibilidad de plagio de la actividad.9 Además del diseño de actividades, otros autores sugieren integrar los chatbots a trabajos grupales, aprender a desarrollar instrucciones o prompts y proponer a los estudiantes la evaluación de diferentes resultados.10
A pesar de todo, el fantasma del plagio recorre las escuelas. Miles de docentes están preocupados por el uso que sus estudiantes podrían darle a los chatbots, al intentar usarlos para resolver sus tareas. Lo que pasa es que los chatbots ponen en cuestión toda una batería de recursos escolares. Consignas como “Escriba un ensayo sobre los derechos humanos en los últimos 40 años de la historia argentina” corren peligro de extinción. Tal vez sea esta una buena oportunidad para dejar de lado ciertas actividades cómodas y recurrentes, y pensar, no sin algún trauma o golpe al narcisismo, cómo compartimos los espacios de enseñanza y aprendizaje con las inteligencias artificiales.
¿Humanos sustituidos por máquinas?
A pesar de que es deseable un uso justo y ético de las inteligencias artificiales, siempre existe el riesgo de la sustitución laboral. Esto presenta un desafío para varios actores, entre los que se encuentran los Estados como agentes reguladores.
En los últimos diez años, las plataformas digitales han instalado profusamente algoritmos para la gestión del trabajo y el control de millones de trabajadores en todo el mundo. Los chatbots son la primera línea de recepción de información de cualquier servicio al cliente. Solo nos contactaremos con un operador humano si nuestra consulta no es primero resuelta por un sistema automático. La historia nos demuestra que la inteligencia artificial ha sido desarrollada para bajar los costos de producción de productos y servicios. En este sentido, es innegable el riesgo de que las inteligencias artificiales conversacionales sustituyan a profesionales y trabajadores de la información.
¿Qué sucedería si las tareas informacionales, periodísticas y de diseño visual fueran realizadas por chatbots? En el estadio actual de la IA, nos encontraríamos frente a tareas generadas por estadísticas y patrones, alimentadas por el sentido común de la información en Internet. Tareas sin heurística, sin emoción ni precisión. Tareas que no contendrían perspectiva de género, de raza ni de clase, ni tampoco el gusto de lo local: el chatbot Midjourney, por ejemplo, no identifica que en la Argentina la medialuna es un producto de panificación, dulce y delicioso, y en consecuencia fracasa al generar su imagen.
Recientemente algunos medios de comunicación comenzaron a usar chatbots para tareas de síntesis de información y para el diseño de piezas visuales que no serían compradas a ningún diseñador gráfico humano por su falta de calidad. Además, existe otro aspecto del que poco se habla. Para entrenar a sus modelos, las empresas desarrolladoras se han apropiado de estilos, estéticas y contenidos que han demandado un gran esfuerzo a sus creadores, sin pagar derechos de autor. Este habrá de ser un aspecto legal a tener en cuenta en la utilización comercial de estas aplicaciones.
La IA como desafío para la democracia y los derechos de la ciudadanía
Más allá de los chatbots, la IA ya sustituye a los humanos en muchas esferas de la vida pública: hay algoritmos que deciden la aceptación o el rechazo de cuestiones tan disímiles como solicitar un crédito, ingresar a una escuela, o penalizar un delito. Existe gran preocupación sobre el funcionamiento de estos sistemas, porque sus sesgos de raza, clase y género, que desfavorecen a las minorías, se encuentran debidamente documentados.11
Por eso es necesario que los Estados se interesen estratégicamente en diferentes aspectos de la IA, que no solo incluyan los desarrollos científicos y tecnológicos locales, sino normas éticas y marcos regulatorios que contemplen el carácter transnacional de la producción y el uso de la IA. Hasta el momento, el Estado argentino y otros de la región no han establecidos legislaciones formuladas desde la soberanía tecnológica –entendida como la gobernanza de Internet a partir de los intereses comerciales, de seguridad y privacidad de un país– acerca de la protección de los datos de la ciudadanía, la producción de bienes y servicios culturales y el uso de infraestructuras por parte de las plataformas multinacionales prestadoras de servicios en la Argentina y otros países de la región.12
Si bien a menudo se ha señalado el carácter descentrado, deslocalizado y global de las diversas capas que conforman Internet, también es cierto que otras regiones han realizado esfuerzos de regulación del entorno digital que aún no han sido revisados en la Argentina. Por ejemplo, en julio de 2022 el Parlamento Europeo aprobó dos importantes leyes para las plataformas digitales, las que deben justificar sus prácticas de datificación en relación con principios de transparencia, precisión y límites de almacenamiento, entre otros.13 En ese contexto, la reutilización de datos por parte de compañías privadas debe incluir el derecho a los usuarios a acceder y objetar los datos que se recolectan sobre ellos, solicitar su olvido, rectificación y portabilidad, y a la opción de ser perfilados, o no, por sistemas automatizados. Estas leyes se vinculan directamente con las plataformas de IA de uso masivo como ChatGPT, porque al sintetizar los datos que ya se encuentran en la web, las IA reutilizan datos, y no siempre de manera fiable.
Si no existe un marco regulatorio nacional para la IA, ¿cómo lograrán protección ciudadanos y figuras públicas si las IA difunden desinformación sobre ellos? ¿De qué manera se protegerá el patrimonio cultural de los creadores argentinos si los sistemas de IA los reutilizan para sintetizar nuevas imágenes y textos? ¿Cuáles serán las bases de una educación para la ciudadanía digital, más allá de los intentos valiosos pero voluntariosos de un conjunto de docentes interesados? ¿Cómo se garantizará que los trabajadores de la información y la cultura accedan a un trabajo y no sean indiscriminadamente sustituidos por algoritmos para mejorar la productividad? Afortunadamente, universidades nacionales comienzan a pensar estas preguntas con enfoques contemporáneos y transdisciplinares.14 Sería muy provechoso que el afianzamiento de la democracia en la Argentina reforzara el diálogo entre las diferentes esferas de la función pública y estos innovadores espacios de pensamiento que construyen vínculos entre la IA y la sociedad.
Sin duda, una visión de soberanía tecnológica sobre el entorno digital orientada a la protección de los datos personales de los ciudadanos, a la construcción de una esfera de expresión donde sea posible una convivencia entre la ciudadanía a pesar de sus diferencias, y a la protección de los derechos laborales de quienes trabajan en las zonas grises de las plataformas digitales, sometidos al control algorítmico de sus tareas y sin garantías de derechos, tanto conduciría a una ciudadanía de mejor calidad como modelaría el espacio digital como un ámbito de aplicación de derechos.
Por otro lado, la IA, el uso de grandes cantidades de datos y herramientas de aprendizaje pueden colaborar en generar nueva información para la toma de decisiones y la producción de políticas públicas. Pero por el otro, hace falta investigar los lazos entre la teoría política y la inteligencia artificial, estudiar en profundidad cómo las decisiones tomadas por máquinas puedan afectar a la democracia, que es en suma, la gran decisión colectiva mediante la que devenimos sujetos con derechos.15 Todavía no es demasiado tarde para dar este debate desde la soberanía tecnológica, que abrirá el camino para un mejor entendimiento de los procesos de la IA y su vinculación con la democracia.
A modo de cierre
En este escenario, las posibilidades de vínculos con las inteligencias artificiales basadas en texto oscilan entre dos sentidos. El primero propone la colaboración entre el pensamiento algorítmico de la máquina y el heurístico de los humanos. En el terreno de la creatividad y la educación, el uso colaborativo de la IA plantea múltiples oportunidades e invita a disminuir el fantasma del plagio, el que, por otra parte, existe desde hace mucho tiempo. El segundo advierte sobre los riesgos socioculturales de una sustitución laboral que incluye apropiaciones sin ética, disminución de la calidad del trabajo cultural y pérdida de empleos intelectuales, ya precarizados bajo la figura del trabajo autónomo. En esta misma dirección, es necesario tomar seriamente las relaciones entre inteligencia artificial, Estados y democracia, para que un empobrecimiento de derechos no nos tome por sorpresa. Es de esperar que podamos usar todo el conocimiento generado en las diversas vertientes de los estudios sociales de las tecnologías para detener estos riesgos a tiempo, y poder iniciar una etapa de colaboración entre humanos y máquinas lo más pacífica posible.
1. Este trabajo se realizó con el apoyo del programa de becas posdoctorales de la Universidad Nacional Autónoma de México, Coordinación de Humanidades, en una estancia de investigación en el Instituto de Investigaciones Sociales de la UNAM, con la asesoría académica de la Dra. Judith Zubieta García.
2. Ver https://chat.openai.com.
3. A lo largo de la escritura de este capítulo se realizaron varias consultas a Chat GPT. Se señalan en notas al pie.
4. Respuesta del chatbot Chat GPT a la pregunta “¿Qué es una red neuronal artificial?”.
5. Respuesta del chatbot Chat GPT a la pregunta “¿Cómo ha sido entrenado Chat GPT?”.
6. Ken Robinson: ¿Las escuelas matan la creatividad? Charla TED disponible en https://www.ted.com/talks/sir_ken_robinson_do_schools_kill_creativity?utm_campaign=tedspread&utm_medium=referral&utm_source=tedcomshare [última consulta: 8 de mayo de 2023].
7. José Antonio Marina y Eva Marina (2013). El aprendizaje de la creatividad. Buenos Aires: Ariel.
8. Respuesta del chatbot Chat GPT a la pregunta “¿Usas pensamiento heurístico?”.
9. Alejandro Morduchowicz y Juan Manuel Suasnábar: “Chat GPT y educación: ¿oportunidad, amenaza o desafío?”. Enfoque educación. Disponible en https://blogs.iadb.org/educacion/es/chatgpt-educacion/ [última consulta: 8 de mayo de 2023].
10. Luis Codina: “Cómo utilizar ChatGPT en el aula con perspectiva ética y pensamiento crítico: una proposición para docentes y educadores”. Disponible en https://www.lluiscodina.com/chatgpt-educadores/ [última consulta: 8 de mayo de 2023].
11. Gabriela Sued: “Culturas algorítmicas: conceptos y métodos para su estudio social”. Revista Mexicana de Ciencias Políticas y Sociales, 67(243). Disponible en https://www.revistas.unam.mx/index.php/rmcpys/article/view/78422 [última consulta: 8 de mayo de 2023].
12. Martín Becerra y Silvio Waisbord (2021). “The curious absence of cybernationalism in Latin America: Lessons for the study of digital sovereignty and governance”. Communication and the Public, 6(1-4), 67-79.
13. Guillermo Mastrini: “El control de las plataformas: ¿Quién le pone el cascabel al gato?” Letra P, 15 de agosto de 2022. Disponible en https://www.letrap.com.ar/nota/2022-8-15-9-38-0-el-control-de-las-plataformas-quien-le-pone-el-cascabel-al-gato [última consulta: 8 de mayo de 2023].
14. Por ejemplo la Diplomatura Superior en Inteligencia Artificial y Sociedad de la Universidad Nacional de Tres de Febrero-UNTREF, y el Centro de Estudios en Tecnología y Sociedad (CETyS), de la Universidad de San Andrés (UdeSa).
15. Daniel Innerarity: Inteligencia Artificial y Democracia. El País, 8 de junio de 2021. Disponible en https://elpais.com/opinion/2021-06-09/inteligencia-artificial-y-democracia.html [última consulta: 8 de mayo de 2023].