01/06/2023 - TECNOLOGÍA Los riesgos de la inteligencia artificial: especialistas la comparan con las guerras nucleares y las pandemias
La declaración es firmada por personalidades como el líder de ChatGPT y los investigadores que recientemente ganador el “Nobel de la informática”.
Un grupo de líderes y voces de referencia del ámbito científico emitió una declaración escueta aunque contundente, en la que señalan los riesgos asociados al avance de la inteligencia artificial. En la advertencia comparan los posibles peligros con las guerras nucleares y las pandemias.
Inteligencia artificial y riesgosa: una declaración breve y categórica
La breve declaración –se extiende en apenas 22 palabras- fue publicada por el Centro para la Seguridad de la IA, una organización que procura “reducir los riesgos a escala social de la inteligencia artificial”, según se lee en el sitio web oficial.
Una advertencia a la que adhieren figuras relevantes de la industria y especialistas en IA
Conforme los sistemas basados en IA ganaron el centro de la escena en 2023, con ChatGPT de OpenAI a la cabeza, hemos oído numerosas advertencias respecto a los posibles malos usos de esas tecnologías y sobre los peligros que implica la denominada “súper inteligencia”.
La declaración emitida esta semana por el Centro para la Seguridad de la IA no debería ser tildada de amarillista, en función de la reputación de los firmantes. Entre los que adhieren a la advertencia figuran los investigadores Geoffrey Hinton y Yoshua Bengio, calificados los “padres de la inteligencia artificial” y ganadores en 2020 del Premio Turing, que es considerado el “Nobel de la informática”.
También firman Demis Hassabis, director de Google DeepMind, y Sam Altman, CEO de OpenAI, la organización que desarrolla a ChatGPT, el chatbot basado en IA que ha impulsado el nuevo auge en el sector.
“Mi mayor temor es causar daños al mundo”, había dicho Sam Altman de OpenAI
La adhesión del líder detrás de ChatGPT a la declaración de 22 palabras no es sorpresiva. Si bien Altman lidera la avanzada del actual paradigma del sector, una serie de testimonios suyos ya alertaron acerca de los riesgos eventuales del desarrollo de IA sin regulaciones.
“Necesitamos maximizar lo bueno sobre lo malo. El Congreso tiene una oportunidad ahora mismo. Tuvimos la misma opción cuando nos enfrentamos a las redes sociales. No pudimos aprovechar ese momento”, agregó el CEO de OpenAI, según repasamos en la ocasión en TN Tecno.
Los riesgos de la inteligencia artificial: Elon Musk y Steve Wozniak también encendieron las alarmas
En una petición solicitaron que los desarrollos de IA sea pausados durante seis meses, lapso en el que, aconsejaron, es menester idear regulaciones y manuales de buenas prácticas para “distinguir entre lo real y lo artificial” y hacer frente a la “dramática perturbación económica y política, especialmente para la democracia” que consideran causará el avance de esas tecnologías.
“En los últimos meses hemos visto cómo los laboratorios de IA se han lanzado a una carrera descontrolada para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable”, escribieron.
¿Cuáles son los riesgos que trae la IA avanzada?
Los nuevos sistemas de IA, que avanzan en forma sostenida, no ganaron fama sin exhibir méritos. En rigor, son cada vez más hábiles para ejecutar tareas que hasta hace poco eran exclusivas del ser humano. Por mencionar algunas de esas habilidades, pueden redactar textos coherentes, responder a preguntas complejas, resolver problemas matemáticos, escribir el código de los softwares, crear canciones e imágenes sorprendentes, entre otros ítems de una larga lista.
Los límites entre las creaciones humanas y las artificiales: Conforme estas tecnologías avanzan, ¿cómo podemos saber si el contenido que nos llega fue creado por una persona o por una máquina? En ChatGPT desafía a la docencia examinamos más a fondo aquel interrogante.
En función de las variables repasadas, son cada vez más los especialistas, autoridades y empresarios recomendando la creación de normas para el desarrollo de sistemas de inteligencia artificial. En la vereda opuesta opinan que los riesgos que derivan del uso de la IA son preferibles a las regulaciones.