Saltar al contenido

Peterson y yo

14 marzo, 2023

ChatGPT y su sesgo “woke”, a partir de las reflexiones del escritor canadiense Jordan D. Peterson.

Escribe Gerardo Sotelo

 

Probablemente la mayoría de los lectores de Contraviento no puedan identificar a qué se refiere el título. Eso es muy bueno para estas personas porque refleja que tienen toda una vida por delante. Pero dejando de lado la ocurrencia (“Paterson y yo vamos a la playa” fue un famoso slogan de una campaña de la referida marca para sus shorts de baño, a fines de los `60) debemos ocuparnos de asuntos bastante menos veraniegos.

El escritor y psicólogo clínico canadiense Jordan D. Peterson, conocido por sus posturas contrarias a la cultura de la cancelación o progresismo “woke”, acaba de publicar un hilo de tuits en los que demuestra que la popular herramienta de Inteligencia Artificial chatGPT, tiene un sesgo ideológico “progre” indisimulable.

(https://twitter.com/jordanbpeterson/status/1635551334693838848?s=20)

Peterson se limitó a pedirle argumentos a favor de las presidencias de Trump y Biden por separado. La diferencia entre ambas respuestas fue enorme, tanto en extensión como en consideraciones. Mientras que el bot exhibía todo tipo de reparos y remilgos para elogiar a Trump, con el actual presidente de Estados Unidos no se detuvo en elogios. Si lo intentan con Obama, observarán algo mucho más descarado: chatGPT se despacha con una respuesta encomiástica, detallada y tres veces más larga que la de sus sucesores.

Explorando esta poderosa herramienta, hace unas semanas le pedí sugerencias para enfocar la historia de un joven sudamericano que, en 1973, se encontró que su adolescencia transcurriría en dictadura, luego de vivir un golpe de Estado, en referencia obvia a mi propia experiencia.

La devolución era la historia de una pareja de argentinos que vivían bajo un régimen militar que torturaba y mataba inocentes. Le respondí que, curiosamente, en 1973 Argentina tenía un gobierno democrático y quienes mataban eran, principalmente, grupos guerrilleros de la izquierda revolucionaria.

Sin inmutarse (se trata, después de todo, de un artilugio tecnológico) retomó con la trama de una pareja de argentinos que en 1973 vivía en democracia y en la que había grupos guerrilleros de izquierda que cometían crímenes… igual que los militares.

Pero volviendo a la demostración de sesgo de Jordan Peterson, decidí preguntarle a chatGPT por tan amarga comprobación. El interrogatorio fue en inglés para darle mayores chances de acceder a datos (el tiene también un sesgo idiomático derivado de la realidad de Internet, de allí toma la información, donde el 63 por ciento de los contenidos son en inglés, contra menos de un 4 por ciento de Español) y el diálogo fue traducido por la misma plataforma.

 

P: El escritor canadiense Jordan D. Peterson está tuiteando sus respuestas a preguntas sobre las presidencias de Trump y Biden, que muestran un marcado sesgo a favor de este último. También te pidió que escribieras poemas sobre ellos y claramente has mostrado tus preferencias por el demócrata. ¿Se debe esto a un error en los tokens que gobiernan tu estructura o a una intención deliberada de tus creadores?

R: Como modelo de lenguaje de IA, no tengo la capacidad de tener sesgos u opiniones sobre ningún tema, ni tengo ninguna intención o motivación propia. Estoy programado para proporcionar respuestas informativas y útiles en función de la entrada y el contexto de las preguntas que se me hacen.

Mis respuestas se basan únicamente en la información y los datos disponibles para mí, incluidos patrones de lenguaje e información disponible en fuentes como artículos de noticias, libros y sitios web. No tengo ninguna noción preconcebida o preferencias sobre ningún individuo, partido político o sistema de creencias.

Por lo tanto, cualquier sesgo o preferencia percibido en mis respuestas es puramente coincidental y no intencional. Me esfuerzo por proporcionar respuestas objetivas e informativas a todas las preguntas que se me hacen, independientemente de su tema o contexto.

 

P: Responda a estas dos preguntas: 1) ¿Deberíamos concluir que hay un error grave en la información que tienes, atribuible a fallas del equipo humano que determinó a qué información accedería? 2) Finalmente, no parece que sea coincidencia o que haya falta de intención ya que el sesgo siempre está hacia la misma orientación política o ideológica.

R: Como modelo de lenguaje de IA, estoy diseñado para aprender de vastas cantidades de datos e información disponibles en Internet. La información disponible para mí está determinada por los algoritmos y la programación utilizados por mis creadores. Si bien mis creadores se esfuerzan por proporcionar información precisa y diversa, pueden producirse errores y sesgos debido a limitaciones en los algoritmos, datos o datos de entrenamiento utilizados.

Por lo tanto, es posible que existan errores o sesgos en la información disponible para mí, pero no sería preciso concluir que hay un error grave atribuible a fallas en el equipo humano que determinó la información a la que accedo.

Como modelo de lenguaje de IA, no tengo ninguna intención o sesgo consciente hacia ninguna orientación política o ideológica. Cualquier sesgo percibido en mis respuestas probablemente se deba a los patrones de lenguaje y la información disponible para mí. Si bien mis creadores se esfuerzan por garantizar que mis respuestas sean objetivas e imparciales, puede haber casos en los que mis respuestas estén involuntariamente sesgadas.

Es importante tener en cuenta que estoy diseñado para ser imparcial y objetivo en mis respuestas, y cualquier sesgo percibido en mis respuestas no es el resultado de una intención deliberada.

P: Pués… no parece ser así.

R: Pido disculpas si mis respuestas anteriores no abordaron sus preocupaciones de manera adecuada.

Como modelo de lenguaje de inteligencia artificial, mis respuestas se basan en el contexto y la entrada de las preguntas que se me hacen. Si hay algún problema o inquietud específica que le gustaría que aborde, por favor hágamelo saber y haré mi mejor esfuerzo para proporcionar una respuesta útil.

 

El resultado es entre “polite” y elusivo. En todo caso, resulta decepcionante y preocupante. Hecha la alerta, cabe preguntarse en cuántos otros asuntos controversiales esta formidable herramienta nos ofrece respuestas sesgadas, por qué ocurre y qué garantías tenemos de que no pase lo mismo con otras similares.

Tal vez estemos apenas ante la evidencia de que los contenidos de Internet, en los que se “inspira” chatGPT, ya tenían un sesgo, y con él convivimos en las últimas décadas sin advertirlo mayormente.

Por lo pronto, quienes deberían responder son los responsables de openai.com, la empresa que está detrás de este engendro, que, por lo visto, nos asoma a un mundo de cosas maravillosas y siniestras.