Saltar al contenido
Contraviento

La discusión Ética de la Inteligencia Artificial

4 junio, 2023
El dilema del tranvía representado en esta imagen como un vehículo autónomo que se queda sin frenos. ¿Qué acción toma?

Por Federico de los Santos.

Desde el advenimiento de la actual iteración en el desarrollo de la Inteligencia Artificial (IA), lo que llamamos Grandes Modelos de Lenguaje (LLM, Large language models, en inglés), se ha planteado por parte de varios formadores de opinión, que se debe tener una discusión ética para limitar el desarrollo o el uso de la inteligencia artificial.

Resulta que a mucha gente le dio miedo que los LLM puedan parecer creativos, puedan tener un discurso tan elocuente y que puedan aparentar una personalidad. Quizás a muchos les recordó a HAL 9000, la computadora de 2001: Odisea del Espacio, Dave. Mucha gente se dio cuenta que se va a quedar sin trabajo. Lo que no se dio cuenta es que se va a terminar su trabajo actual. Quienes enseñan, se dieron cuenta que no van a poder evaluar a los alumnos de la misma forma que antes, porque basta unas instrucciones para tener una respuesta demasiado bien elaborada.

Escena de la película 2001: Odisea en el espacio, de Stanley Kubrick.
Escena de la película 2001: Odisea en el espacio, de Stanley Kubrick.

Pero de ahí a creer que una limitación o regulación de la IA podría ser algo que necesitamos, permítanme ser directo: es naif. Ilusorio. Quasi infantil. Les va a pasar el agua.

Para dar contexto a esta brutal opinión, recordemos un poco qué es la Inteligencia Artificial. Podemos definirla como la capacidad por medio de artilugios tecnológicos que una máquina aprenda y actúe en consecuencia. El ser humano tiene su inteligencia natural, al igual que muchos animales que consideramos inteligentes. La verdad es que no estamos muy de acuerdo, en el mundo científico, sobre qué es la inteligencia y qué consideramos inteligente y qué no. En tecnologías de la información, por ejemplo, creamos sistemas para identificar si algo es un humano o no. Son esas pruebas tipo captcha que vemos en tantas páginas web, que nos piden transcribir el texto distorsionado de una imagen o hacer clic en los cuadraditos que tienen puentes o semáforos. No nos hemos animado a decir si algo es inteligente o no.

Publicidad de IBM del año 1952 donde promocionaba sus computadora como remplazo de 150 ingenieros.
Publicidad de IBM del año 1952 donde promocionaba sus computadora como remplazo de 150 ingenieros.

La tecnología ha avanzado desde sus inicios en el desarrollo de sistemas inteligentes. Y eso no se refiere a una heladera inteligente, que simplemente tiene un mejor flujo del aire, quizás más sensores para saber si prender el motor o no y un montón de botones para funcionar con mayor o menos fuerza por más o menos tiempo. Se refiere a sistemas que puedan realizar tareas que solo un ser naturalmente inteligente puede hacer. Por ejemplo, un ser humano aprende idiomas solo por estar inserto en una sociedad que habla ese idioma. Una computadora aprende un idioma porque le grabamos a fuego reglas que dicen cómo funciona un idioma. El cerebro humano, se va moldeando a si mismo a medida que experimenta, y eso no solo es aprendizaje, sino que es desarrollo biológico. Aparentemente, llega un momento donde el cerebro deja de tomar forma y se queda con la forma que tiene, pero de alguna forma poco conocida, ya tiene todo lo que necesita para almacenar información, clasificarla, borrar lo que no necesita y organizarla de tal forma de generar nuevas ideas.

Una cosa maravillosa que hace el cerebro humano y que los LLM no están entrenados para hacer, es poder mezclar conceptos contrapuestos o disímiles. Los LLM funcionan con un método de predicción de “cuál es la próxima palabra más probable” en base a todos los millones de documentos con que se entrenaron. Cuando se les pide que hagan cosas por fuera de esas premisas, comienzan a fallar.

Cuando el conjunto de datos es demasiado grande, una computadora que tiene ciertas reglas puede inferir otras. Un poco no se sabe ni cómo. Pero al menos uno de estos LLM que andan en la vuelta, parece haber aprendido español a partir de un conjunto de tan solo 15 documentos y sus conocimientos previos de inglés.

Pero no solo de LLM está hecha la inteligencia artificial. Hay muchas más cosas que no son LLM y que también son inteligencia artificial. Una de las más esperadas es la conducción autónoma. Todavía no tenemos, y falta mucho para tenerlo, un vehículo que pueda conducirse de forma autónoma en condiciones reales. Hay muchos experimentos y muchos que se acercan. Pero tienen un problema, necesitan una ciudad completamente señalizada y con la señalética en buen estado. O sea, si no están las líneas blancas en el piso, no sabrá qué hacer. Como le dije a alguien muy preocupado por los Terminators hace poco tiempo: “cuando veas un automóvil andando de forma autónoma por esa calle sin pavimentar, ahí preocupate”. Mientras eso, que aparentemente debería ser facilísimo, no llegue, estamos a buen resguardo de las máquinas que van a venir a conquistar la humanidad y esclavizarnos a todos.

Accidente donde un automovil autónomo atropelló y mató a un ciclista porque no logró identificarlo.

En conducción autónoma es donde se dan algunas de las discusiones éticas desde hace bastante tiempo. Como las cosas inanimadas, que no tienen consciencia de sí mismas, no las consideramos sujetos de derecho penalmente responsables, es que todavía un fabricante de automóviles autónomos no puede lanzar al mercado un vehículo 100% autónomo. Porque, ¿qué pasa si un vehículo autónomo toma una decisión que acaba con la vida de una persona? ¿Quién es el responsable? ¿El dueño, el fabricante, el regulador, el muerto que desafió las capacidades del vehículo que se le venía encima? No podemos atribuirle la responsabilidad al vehículo, porque el vehículo no es “obra de Dios” o de la naturaleza, como dicen algunas legislaciones; porque el vehículo fue construido por un humano.

Poner una fábrica de vehículos autónomos son miles de millones de dólares y decenas de años de investigación y desarrollo. Aún no pudieron ni Uber, ni Google, ni Tesla, y mucho menos ningún fabricante de automóviles. Estos últimos, porque claramente, no es un problema de fuerza, es de inteligencia.

Sin embargo, en tecnologías de la información, los recursos son prácticamente ilimitados y gratuitos. Hay algunas cosas que la hacen una actividad humana muy particular, entre ellas: la ley de Moore, el Software Libre y las espirales de retroalimentación positiva.

La ley de Moore fue expresada por Gordon Moore hace 58 años y actualmente se entiende como que cada 2 años se duplica la capacidad de procesamiento. Como corolario, pasa que el costo de procesamiento baja a la mitad, así que, si algo es muy caro, solo falta esperar un poco. El software libre, que nació como un movimiento de personas interesadas en compartir sus conocimientos de forma recíproca, esperando tan solo que sus creaciones fueran mejoradas y siguieran libres, ha hecho que cualquier programador pueda ver y aprender cómo se programa prácticamente cualquier cosa. Solo por el costo de tener acceso a internet. Las empresas más grandes del mundo del software han abrazado el movimiento, por el simple hecho de que el software es simplemente una mercancía: lo que vale es el conocimiento. Como último, las espirales de retroalimentación positiva en tecnologías de la información no tienen forma de detenerse y vienen superando todos los obstáculos. Esto se representa en que cuando un fabricante produce un hardware más potente, vienen los programadores y escriben software no solo para aprovecharlo, sino que crean funcionalidades que requerirán un hardware más potente. A lo que fabricante responde con otro hardware más potente.

Teniendo en cuenta todo eso, no hay forma de detener la investigación en IA. Porque si no la hacemos acá, la estarán haciendo otros. Hay varios ejemplos de cosas que en la humanidad se entiende poco cómo puede que, siendo tan potentes, estén al alcance de la mano. Primero, Internet, y segundo el sistema GPS. Internet nació como un proyecto del Departamento de Defensa de los EEUU a través de la división DARPA. Y tenía como objetivo la defensa. ¿Cómo puede ser que de repente se liberó al comercio y hasta los gobiernos enemigos del creador de la cosa tienen acceso igualitario? En cuanto al GPS, el Sistema de Posicionamiento Global, también nació como un proyecto del Departamento de Defensa para poder ubicar con precisión tropas y objetivos en todo el globo. Y es libre. Cualquier persona con un celular desde que salió el primer iPhone hasta ahora, tiene en su mano un dispositivo capaz de darle con una precisión de un metro, su propia ubicación. Y no solo se conecta a la red que levantaron los EEUU, sino que se puede conectar a la red rusa (GLONASS) y a la europea (Galileo).

Las tecnologías de la información, a diferencia de las tecnologías para la salud humana, no tienen prácticamente regulación. Hay algunas regulaciones en cuanto a transferencia tecnológica, pero con todo lo visto hasta ahora, y con la forma en que el gobierno chino se mueve al respecto, cualquier regulación sería un esfuerzo fútil. Podremos tener todas las charlas que quieran sobre ética de la inteligencia artificial. Es más, serán bienvenidas, porque un marco de trabajo preexistente les ayuda a las compañías a comercializar mejor sus productos. Pero que de ahí podamos llegar a una prohibición o moratoria sobre su desarrollo, es otra historia. Una historia de ciencia ficción.