23.1 C
Maracay
domingo 28, abril 2024

VIVE LA NOTICIA A TRAVÉS DEL DIARIO LÍDER DEL ESTADO ARAGUA Y LA REGIÓN CENTRAL DEL PAÍS

¿Por qué el mundo pide repensar la inteligencia artificial?

Expertos en el área consideran que el mundo debe evaluar el impacto de estas tecnologías en las generaciones futuras

La explosión de los modelos de inteligencia artificial generativa, capaces de “conversar” y crear textos, imágenes o música, a partir de datos existentes, ha hecho que más de 5.500 expertos de todo el mundo hayan pedido una pausa, pero ¿por qué ahora? El ritmo al que avanza esta tecnología preocupa, hay que repensarla.

Los expertos encabezados por Yoshua Bengio, premio Turing y profesor de la Universidad de Montreal, en Canadá y Stuart Russell, de la Universidad de California en Berkeley, Estados Unidos, solicitan en una carta a los laboratorios que suspendan al menos seis meses el entrenamiento de sistemas de inteligencia artificial (IA) más potentes que GPT-4 (el último modelo de IA generativa de la empresa OpenAI).

Entre los firmantes hay varios españoles. Carles Sierra, director del Instituto de Investigación en Inteligencia Artificial del Consejo Superior de Investigaciones Científicas (CSIC) y Pablo Jarillo-Herrero, del Instituto Tecnológico de Massachusetts (MIT), quienes coinciden en que no se han tomado “las precauciones necesarias” antes de trasladar masivamente esta IA a la ciudadanía.

Sierra admitió tener “una preocupación creciente por esta especie de carrera armamentística” en la que están las empresas tecnológicas. No solo es OpenIA la que desarrolla modelos de IA generativa, también Google, con Bard,o Meta con LLaMa.

Esta foto que se viralizó en redes sociales fue creada con inteligencia artificial

POR PRECAUCIÓN

No se trata de catastrofismo, dice Sierra, sino que “hay compañías que han invertido mucho dinero, quieren monetizar lo que han hecho y están en la batalla por ver quién se lleva el trozo más grande del pastel”, pero en “este proceso están siendo poco prudentes”.

Falta evaluación y sin ella no sabemos qué consecuencias puede tener esta IA, afirmó el experto del CSIC, quien lo compara con el proceso de investigación y aprobación de un medicamento, en el que las agencias reguladoras tardan años en aprobarlos y solo tras la superación de las tres fases de los ensayos clínicos (hay una cuarta de farmacovigilancia).

“Las empresas están sucediendo sus versiones a un ritmo de una cada mes -OpenIA ya trabaja en ChatGPT-5-, poniendo a disposición de todo el mundo los nuevos modelos y no de manera sectorial”, lamentó.

Jarillo-Herrero también está preocupado por el ritmo al que avanza esta IA y recordó que hace algún tiempo también hubo interés en una moratoria sobre el uso de la técnica de edición genética Crispr, que progresaba “mucho más deprisa de lo que la humanidad podía digerir y algunas aplicaciones se podían ir de las manos”.

“Con tecnologías tan disruptivas es conveniente entender y anticipar las posibles consecuencias de su uso y regularlo”, advirtió.

Ambos expertos coinciden en que la IA, también la generativa, puede proporcionar beneficios, pero, tal y como advirtió Sierra, estos sistemas buscan que el resultado sea verosímil, no necesariamente cierto y que parezca que lo ha dicho un humano, “ahí está el riesgo”.

Basados en el aprendizaje automático, estos sistemas, de los que también preocupa la privacidad y el uso de datos personales, aprenden de los millones de textos, imágenes o vídeos publicados en internet y los desarrolladores se quedan con los datos de las “conversaciones” de los usuarios para mejorar los siguientes modelos.

Estas imágenes también se dejaron correr en la red de un momento que nunca ha ocurrido

EL MAYOR TEMOR

Jarillo Herrero, profesor de Física en el MIT, concentra sus preocupaciones sobre todo en la desinformación. Imágenes hiperrealistas del papa Francisco con plumas de blanco o de Donald Trump resistiéndose a un arresto, son dos de los ejemplos que han circulado estos días en redes.

“Antes ya había mucha desinformación, pero era bastante fácil darse cuenta y distinguir para una persona educada. Ahora, con el uso de la IA, es mucho más fácil publicar/diseminar información que en una primera lectura parece real, pero que en realidad es falsa”, resumió Jarillo-Herrero.

Además, explicó que la información-texto con el que se entrena esta IA, contiene muchos biases-sesgos-, los mismos que los humanos”, por lo que las respuestas generadas contienen todo tipo de estereotipos falsos.

El investigador reflexiona que la humanidad, en general, nunca ha sido muy efectiva en contener avances científicos y técnicos no deseados, por ejemplo, el desarrollo de bombas atómicas o nucleares.

“Sin embargo hay una gran diferencia entre la IA y otros avances peligrosos como las bombas nucleares. Para estas últimas se requiere una instrumentación y materiales muy complejos, no fácilmente disponibles incluso para gobiernos”.

En cambio, apunta, cualquiera con unos cuantos ordenadores puede hacer uso de la IA. “Por ejemplo, los piratas informáticos deben estar planeando ya miles de ataques utilizando IA, que puede resolver fácilmente puzzles de verificación que antes requerían un humano”.

Insisten en que esta moratoria de seis meses, si se produce, quizás ayude a los gobiernos a intentar entender mejor las posibles consecuencias negativas de la IA y a regularizar su uso. “Las compañías más avanzadas pueden quizás pausar y pensar en cómo contrarrestar esos efectos negativos”.

Por su parte, Sierra, quien alerta del peligro de poner en manos de un adolescente un sistema que puede generar desinformación, también habló de regular su uso y recordó que la soberanía siempre está en el pueblo. “No estoy de acuerdo en prohibir, pero sí en regular”.

- Advertisement -spot_img

ARTÍCULOS RECIENTES

error: Content is protected !!