Desde que, hace unos meses, se lanzó la inteligencia artificial ChatGPT, un tema del que casi nadie hablaba pasó a estar en las charlas de sobremesa y las conversaciones entre amigos. ¿Qué impacto tendría esta nueva tecnología sobre áreas tan sensibles como la educación, la automatización de nuestros trabajos o la circulación de información falsa?
Pero mientras la discusión se centraba en estos riesgos más mundanos, un grupo de más de mil expertos y desarrolladores liderados por el icónico Elon Musk llamaron a pausar los avances en la investigación de Inteligencia Artificial (IA) porque “podría poner en riesgo a la Humanidad”.
“Pará, pará, pará… No entiendo. Una cosa es que la IA pueda afectar los empleos y otra muy distinta es que ¡nos pueda matar a todos! ¿Cómo podría un simple chat ser peligroso?”.
En realidad, en los círculos de investigación en IA este no es un debate nuevo: gran parte de la comunidad especializada lleva más de una década argumentando que, aunque a nosotros pueda sonarnos absurdo, el riesgo es real: los peligros que acarrea se pueden comparar a los de la tecnología nuclear. Lo que sí es una novedad es que los protagonistas de esta comunidad científica den un golpe en la mesa y pidan “parar la pelota” por seis meses para estudiar los riesgos de los desarrollos en los que ellos mismos trabajan desde hace años.
Históricamente -y en sintonía con lo que pasa con la mayoría de los grandes temas que afectan a la Humanidad- siempre hubo dos bandos en materia de IA. Por un lado están los “apocalípticos” liderados por Elon Musk -pero entre los que se encolumnaron también Bill Gates y Stephen Hawking- que advierten sobre los peligros extremos de estos desarrollos. En diciembre de 2014, durante una entrevista con la BBC, Hawking se adelantó a su tiempo y fue categórico sobre el posible efecto destructor de la tecnología: “El desarrollo de la IA puede terminar con la raza humana”.
En la vereda de enfrente están los “tecnoptimistas”, con Mark Zuckerberg como cara más visible. Aunque algunos creen que Elon Musk exagera en su visión tremendista, ningún análisis serio del tema debería pasar por alto algunas alarmas que se empezaron a encender.
DESTELLOS DE INTELIGENCIA ARTIFICIAL GENERAL
Los llamados “sistemas complejos” -un tipo muy particular de desarrollo entre los que se encuentra el cerebro humano- articulan una gran cantidad de componentes simples pero, cuando la cantidad comienza a aumentar, muestran propiedades emergentes que no eran para nada obvias en el esquema original. Los hormigueros son un ejemplo claro de sistema complejo: cada hormiga tiene reglas de conducta muy básicas, no hay autoridad ni planificación, pero con muchas hormigas aparecen fenómenos increíbles como la “agricultura”, la división especializada del trabajo y hasta los cementerios.
En comparación a la simpleza de una única hormiga, el desempeño de una colonia de hormigas es absolutamente sorprendente e inesperado. Algo parecido pasa con el cerebro humano. Basta conectar decenas de miles de millones de algo bastante simple como una neurona para que emerjan fenómenos tan exóticos como la consciencia, la inteligencia y la memoria. En los sistemas complejos las consecuencias imprevistas e inesperadas no son la excepción, son la norma.
Nos toca ser contemporáneos de un cambio copernicano: por primera vez en la historia de la Humanidad, nos acercamos a tener una Inteligencia Artificial realmente poderosa, en varios aspectos ya superior en sus capacidades a un ser humano. Pero este poder no radica en que hayamos entendido cómo funciona realmente, sino más bien en un ejercicio heurístico de prueba y error. ¿Qué pasaría si armamos una red neuronal con un billón de parámetros y le damos para que aprenda todo el descomunal volumen de texto disponible en internet? El resultado de hacer esa prueba es GPT-4, presentado la semana pasada por el laboratorio OpenAI.
Casi en simultáneo con su lanzamiento, esta semana la propia OpenAI publicó un paper titulado “Sparks of Artificial General Intelligence: Early experiments with GPT-4 (”Destellos de Inteligencia Artificial General: primeros experimentos con GPT-4”) en el que reconoce no saber del todo por qué funciona tan bien y se muestra sorprendida por las capacidades emergentes e inesperadas de esta plataforma. La inteligencia artificial general es precisamente la quimera máxima: la creación de una máquina con inteligencia sobrehumana. La mera mención de esa expresión en el título del paper trae a la memoria de quienes están empapados en este tema todas las distopías que se ocupó siempre de explorar la ciencia ficción. Pero estamos cerca de que ya no sea solamente una idea de película. El informe concluye con una recomendación de seguir estudiando en profundidad para entender el funcionamiento de estos sistemas.
ChatGPT, la simpática herramienta con la que muchos venimos interactuando, es apenas una fracción poderosa pero minúscula y lavada de lo que puede hacer GPT4. Pero aún en el uso restringido que puede hoy hacer el público general muestra capacidades que deja perplejas a la mayoría de las personas. Tarea para el hogar: si nunca usaste ChatGPT te recomiendo que hoy mismo crees una cuenta gratuita y compruebes lo increíbles que son sus posibilidades.
Pero las opiniones están repartidas. La semana pasada, Gary Marcus, profesor emérito de la Universidad de Nueva York y uno de los popes de la IA, publicó un largo artículo en el que desestima que los avances de GPT4 sean tales: “No creo que esté cerca de la Inteligencia Artificial General. (…) El problema de las invenciones no está resuelto, la confiabilidad tampoco y la planificación de tareas complejas (como reconocen sus creadores) tampoco está resuelta”.
EL RIESGO DE ASUMIR UN COSTO QUE NO PODEMOS MEDIR
El conocimiento humano se basa en un sistema dialogado de hipótesis, pruebas y errores. Pero una vez alcanzado determinado descubrimiento, se entienden perfectamente las causas que llevaron a ese desarrollo y ese mecanismo garantiza una relativa previsibilidad. Con la IA, no sucede así. Los desarrolladores de alguna manera “juegan” con un sistema complejo que no podemos entender por completo y que está produciendo resultados impactantes. Imaginate que te regalan un juego de química con montones de tubos de ensayo con sustancias variadas y sabes que alguna de esas mezclas es potencialmente explosiva. ¿Quién jugaría livianamente a combinar materiales si supiera que podría generar una detonación? Bueno, en materia de IA estamos en esa instancia: mezclamos cosas sin todavía conocer plenamente las potencialidades ni los efectos.
Yuval Harari -uno de los que puso la firma en la solicitada que impulsó Elon Musk- explicó la dimensión de ese riesgo en un artículo que publicó hace una semana en el New York Times con una metáfora que resuena más familiar: “Imaginate que mientras estás por subir a un avión, la mitad de los ingenieros que lo construyeron te avisan que hay un 10% de posibilidades de que el avión se estrelle y mueran vos y toda la tripulación ¿Todavía harías el check in?”.
Los incentivos monetarios en este tipo de desarrollos son determinantes. El primero que logre un modelo estable y prometedor va a dominar el mundo de los negocios de una forma increíble. OpenAI golpeó primero y primereó a gigantes como Google y Facebook, que venían hace años trabajando en desarrollos similares. Para OpenAI testear su sistema con cientos de millones de usuarios era un camino excelente para abreviar los tiempos de desarrollo y sacar una ventaja considerable. El CEO de Google, Sundar Pinchai, lanzó un “alerta roja” y disparó a la compañía a un apresurado lanzamiento para tratar de responder y recuperar terreno. Gran parte de la velocidad del asunto está motivada por dinero y, en general, cuando el dinero interviene en áreas delicadas de la investigación científica, los razonamientos se enturbian y aparecen las trampas.
¿Las farmacéuticas deberían estar habilitadas a lanzar drogas sin testeo previo? Si bien la vacuna de covid no siguió los mecanismos de testeo normal de una droga, existía un virus con potencialidad de diezmar a la población mundial. Al sopesar los riesgos durante la pandemia, la comunidad científica decidió que acortar excepcionalmente el proceso de testeo de la vacuna representaba el mal menor frente a un virus nuevo que amenazaba con matar a muchísimas personas y dinamitar áreas tan sensibles como la provisión de alimentos. En cambio, en materia de IA no hay una urgencia real. El apuro es meramente monetario. (Infobae).