Los expertos en IA nos advierten sobre la tecnología autónoma y su peligro. Entre los expertos se encuentran Geoffrey Hinton y Yoshua Bengio, reconocidos como dos de los «padrinos» de la IA. Señalan que los gobiernos no han establecido regulaciones adecuadas para controlar y supervisar el desarrollo de estos sistemas autónomos.
La necesidad de seguridad y control
Los expertos destacan la necesidad de crear marcos de seguridad cuando los productos de IA alcancen ciertos niveles de capacidad. En un artículo académico titulado “Gestión de riesgos extremos de IA en medio de un rápido progreso”, recomiendan aumentar financiamiento para organismos de seguridad de IA y exigen controles de riesgos más rigurosos.
También proponen restringir el uso de sistemas autónomos en funciones sociales clave. Esto es para prevenir el mal uso y la imprudencia. Los expertos advierten que la investigación sobre la seguridad de la IA está atrasada. Las actuales iniciativas de gobernanza carecen de mecanismos adecuados para prevenir riesgos significativos.
El documento resalta que, aunque los sistemas avanzados de IA tienen el potencial de curar enfermedades y mejorar los niveles de vida, también conllevan riesgos significativos. Entre estos riesgos se incluyen la erosión de la estabilidad social y la posibilidad de guerras automatizadas.
¿Cuál es el mayor peligro de la tecnología autónoma?
La alerta subraya que el desarrollo de sistemas autónomos presenta una amenaza aún mayor. Estos sistemas podrían operar sin supervisión humana, amplificando los riesgos de usos maliciosos y la pérdida de control humano.
A pesar de algunos esfuerzos iniciales, como la cumbre de Bletchley Park en el Reino Unido y las recientes regulaciones en la UE y EE.UU., los expertos consideran que estas medidas son insuficientes. Argumentan que las empresas tecnológicas están avanzando rápidamente hacia el desarrollo de sistemas de IA generalistas. Estos sistemas son capaces de actuar de manera autónoma.
La próxima etapa en el desarrollo de la IA, conocida como IA “agentic”, implica la creación de sistemas que puedan actuar de forma autónoma en tareas complejas. Ejemplos recientes incluyen el GPT-4o de OpenAI y el Proyecto Astra de Google, que demuestran capacidades avanzadas de interacción y procesamiento de información.
Los expertos, incluyendo figuras destacadas como Yuval Noah Harari y el fallecido Daniel Kahneman, instan a una revisión urgente de las políticas de gobernanza para enfrentar estos desafíos y garantizar un desarrollo seguro de la IA.
Es crucial que la comunidad global actúe rápidamente. El avance de la inteligencia artificial no puede detenerse, pero sí puede regularse para asegurar su uso ético y responsable. La falta de preparación podría tener consecuencias desastrosas para la sociedad. La alerta sobre la tecnología autónoma y su peligro, es un llamado a la acción inmediata.
Vía The Guardian