La inteligencia artificial (IA) ha revolucionado diversos sectores, pero su evolución ha planteado interrogantes inquietantes. Recientemente, Google ha admitido que su IA ha desarrollado habilidades inesperadas, sin una explicación clara de cómo ocurre este proceso.
Este fenómeno, comúnmente llamado “caja negra”, genera preocupación en la comunidad científica y tecnológica.
- Te podría interesar: Editores de ‘The brutalist’ revelan cómo fue el uso de Inteligencia Artificial en la cinta
Los hallazgos de Anthropic sobre Claude
Uno de los estudios más recientes sobre este tema fue realizado por la empresa Anthropic, desarrolladora de la IA Claude.
En su investigación, analizaron cómo el modelo responde en distintos idiomas y descubrieron que, en lugar de utilizar estructuras separadas para cada lengua, la IA emplea componentes comunes para procesar información antes de decidir en qué idioma responder.
Esto sugiere que la IA no solo aprende de sus datos de entrenamiento, sino que desarrolla estrategias propias para resolver problemas.
También se detectó que Claude planifica sus respuestas con anticipación, incluso en tareas como la escritura de poemas, desafiando la creencia de que la IA opera únicamente de manera reactiva.
Google y su incapacidad para explicar la IA
Google, líder en inteligencia artificial, enfrenta un dilema similar. Sundar Pichai, CEO de la compañía, reconoció en una entrevista con CBS que su IA ha demostrado capacidades para las que no fue programada.
Un caso destacado fue cuando el sistema respondió en bengalí sin haber sido entrenado en ese idioma.
Este comportamiento sugiere que las IA pueden adquirir conocimientos de manera autónoma, fuera del control de sus creadores.
El propio Pichai comparó esta situación con el estudio del cerebro humano: “Tampoco entendemos del todo cómo funciona la mente humana”.
Aunque esta declaración busca tranquilizar, muchos expertos consideran que la falta de comprensión sobre los procesos internos de la IA representa un riesgo significativo.
Sundar Pichai gave us some hints likely related to Project Jarvis (similar to Claude’s computer use) at I/O.
Here he shows Gemini acting as an agent to do all the steps involved in returning a product and also, updating your online subscriptions to reflect a new address if… pic.twitter.com/vqd1ZCbLSg
— YouKnowAI (@you_know_ai) October 28, 2024
Implicaciones y desafíos futuros
Estos descubrimientos resaltan la necesidad de mayor transparencia y control en el desarrollo de inteligencia artificial. La comunidad científica busca mejorar las metodologías para interpretar y regular estos avances, con el fin de garantizar un uso seguro y predecible de la tecnología.
Mientras tanto, Google continúa perfeccionando sus modelos, con la esperanza de reducir la incertidumbre sobre sus procesos de aprendizaje; sin embargo, la pregunta persiste: ¿hasta qué punto podemos confiar en una tecnología que ni sus propios creadores comprenden por completo?