Maria del Pilar Tello
Apocalípticos y defensores de la IA (I)
No conocemos todavía su capacidad real, ni para hoy ni para el futuro
El fin del mundo estaría cerca si nos guiamos por las opiniones que sobre la IA circulan en los ámbitos tecnológicos. En simultáneo tenemos visiones que relativizan los riesgos y se quedan con las enormes ventajas de una IA que aún nadie sabe, a ciencia cierta, cómo se desarrollará.
Si querían inocular aprensiones y temores lo han logrado, y estos se suman a la variedad de calamidades que se anuncian para el futuro. Desde noviembre de 2022, cuando se presentó el ChatGPT, hemos inaugurado la era de los chatbots y en tan corto tiempo miles de expertos se han pronunciado, unos más importantes que otros. Y todos tienen algo que decir, advertir, anunciar, recomendar. El denominador común es que la investigación y los desarrollos de la IA se pausen, se observen, se regulen. El inicial pedido de mil expertos hoy tiene más de 30,000 firmas que claman para que se detenga la IA que sigue corriendo.
Uno de los padres de esta tecnología dejó Google para tener libertad de crítica. Fue Geoffrey Hinton, al cual se unió Sam Altman, líder de la empresa que lanzó ChatGPT, quien dijo en el Congreso de EE.UU. que “todo puede salir muy mal”. A este ambiente, de por sí malsano, se ha sumado otro manifiesto de solo 22 palabras que pide: “Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”. Lo firman reiterativamente Hinton y Yoshua Bengio, dos galardonados en 2018 con el Premio Turing, el “Nobel” de la informática. Otros firmantes son los tres líderes de las principales empresas de IA: Altman, OpenAI; Demis Hassabis, de DeepMind y Daniel Amodei, de Anthropic. No lo firmó el tercer padre de la IA, también premiado en 2018, el francés Yann LeCun, que esgrime un argumento contundente y racional: es difícil regular algo que no sabemos cómo será. Y discutir cómo hacer la IA segura es prematuro.
Estamos ante un soberbio producto de la inteligencia humana, pero no conocemos todavía su capacidad real ni para hoy ni para el futuro. Nos sorprende que las opiniones van y vienen, pero tenemos un gran resultado concreto: la IA ha sido usada para crear un antibiótico que hace tiempo era buscado por la ciencia para combatir una enfermedad mortal. Bienvenidas las aplicaciones en el campo esencial de la defensa de la vida. Pero qué más vendrá, y si está en la nebulosa ¿por qué se inducen temores más que confianza?
Altman publicó, con dos directivos de OpenAI, el artículo “Gobernanza de la superinteligencia”, en el que piden despreocuparse de los modelos actuales y legislar sobre el peligro futuro, pues la IA tendrá un poder más allá que el de cualquier tecnología creada hasta ahora.
¿Qué buscan con esta alarma tan abstracta? El cronista tecnológico de El País, Jordi Pérez Colomer, avanza una hipótesis para explicar los manifiestos alarmistas. Y es que empresas como OpenAI prefieren que los políticos debatan apocalípticos riesgos futuros y no leyes que compliquen su expansión actual. Vemos dos debates sobre el presente y sobre el futuro. Pero necesitamos regulación para los efectos de la IA ahora, respecto de la automatización del trabajo, la desinformación o la delincuencia, y no podemos dejarnos llevar hacia adelante. Agrega el cronista que estos expertos serán consultados al momento de pensar las leyes(*).
¿Cuál será la reacción de la Unión Europea, principal reguladora de la tecnología en el mundo? Lo veremos la próxima semana.
* JORDI PÉREZ COLOMÉ. Por qué los impulsores de la inteligencia artificial firman tantos manifiestos apocalípticos. El País. 01 de junio 2023
COMENTARIOS