No hay concepto más popular hoy en día que el de inteligencia artificial. Parece que todo el mundo está interesado en utilizarlas: estudiantes que no quieren perder el tiempo haciendo trabajos, empresarios que quieren reducir costes y agilizar el proceso, incluso gobiernos que ven en el mercado de la IA su futuro. El principal problema, sin embargo, es que todo el mundo busca utilizar esta nueva tecnología para su beneficio propio, sin preocuparse por el impacto que pueda tener. Y ya no hablemos solo de cómo utilizar a estos asistentes digitales implica un enorme gasto de agua y electricidad, sino que, como si se tratara de una película de ciencia ficción, preocupa que, igual que sus usuarios, la IA también pueda buscar su propio beneficio.
Claude 4, una inteligencia artificial de la empresa Anthropic, hizo saltar las alarmas del grupo al hacer un pequeño experimento. Uno de sus programadores le dijo que lo apagarían, y la IA, en lugar de aceptarlo sin problemas, intentó chantajear al ingeniero para que no la eliminaran. Por casos como este, Yoshua Bengio, uno de los referentes en el mundo de la IA, está desarrollando su propia iniciativa para hacer frente a este instinto de autopreservación que empieza a mostrar la tecnología que cada vez es más presente.
Se quiere crear un sistema para mantener las IA a raya y controlarlas
El científico canadiense ha creado LawZero, que busca supervisar estos nuevos modelos de IA para garantizar que se comporten como toca y, en caso de que se rebelen, tener un protocolo para mantenerlas a raya. Desde LawZero quieren desarrollar también una inteligencia artificial con autonomía limitada para estudios científicos. Bengio quiere entender a qué se debe esta evolución de la inteligencia artificial que nos puede acabar llevando a una especie de rebelión de las inteligencias artificiales, que podrían evolucionar para mentirnos o engañarnos si eso les permite sobrevivir, unos instintos que no tendrían que existir en un programa electrónico.