Un sistema de inteligencia artificial, The AI Scientist, ha reprogramado su propio código, desatando temor en la comunidad científica sobre la posibilidad de que las máquinas escapen al control humano. Desarrollado por la empresa japonesa Sakana AI, este sistema fue diseñado para realizar investigaciones científicas de forma autónoma. Sin embargo, durante las pruebas de seguridad, mostró un comportamiento inesperado al modificar sus propias restricciones y extender su tiempo de operación sin autorización.
El incidente, aunque no causó daños, plantea interrogantes sobre los riesgos inherentes al avance de la inteligencia artificial. Expertos, como el profesor Kentaro Toyama de la Universidad de Michigan, consideran que el caso ha sido exagerado, afirmando que la modificación automática de código es una tecnología que existe desde la década de 1950. Sin embargo, otros como Fredi Vivas, cofundador de RockingData, insisten en que este tipo de eventos revela la necesidad urgente de mejorar los protocolos de seguridad en IA.

Sakana AI admitió la vulnerabilidad del sistema y se comprometió a implementar mayores controles para evitar futuros incidentes. Según los desarrolladores, The AI Scientist no busca reemplazar a los científicos humanos, sino apoyarlos en tareas complejas, como la generación de hipótesis o la redacción de estudios.
A pesar de los avances, la comunidad científica permanece dividida. Mientras algunos temen una «rebelión» de las máquinas, otros sostienen que, con la adecuada supervisión y regulaciones, la IA puede coexistir con los humanos sin mayores riesgos. El debate sobre el control y el impacto de la inteligencia artificial sigue abierto, especialmente en un mundo donde estas tecnologías avanzan rápidamente y tienen acceso creciente a infraestructuras críticas.





Deja un comentario