Un estudio reciente asegura que los grandes modelos lingüísticos como ChatGPT no representan una amenaza existencial para la humanidad, ya que no pueden aprender ni desarrollar nuevas habilidades por sí mismos sin instrucciones explícitas. Sin embargo, el mal uso de estas tecnologías sigue siendo una preocupación relevante.
Un nuevo estudio, publicado en las actas de la 62ª reunión anual de la Association for Computational Linguistics, aclara que los grandes modelos lingüísticos (LLM), como ChatGPT, no suponen una amenaza existencial para la humanidad. La investigación revela que estos modelos de inteligencia artificial no pueden adquirir habilidades nuevas ni resolver problemas imprevistos sin recibir instrucciones explícitas para hacerlo, lo que los mantiene dentro de un marco controlable y predecible.
Harish Tayyar Madabushi, coautor del estudio y miembro de la Universidad de Bath, argumenta que el temor predominante de que los LLM desarrollen capacidades peligrosas y autónomas es infundado. Según el estudio, no hay evidencia de que estos modelos puedan emerger con habilidades de pensamiento complejo o innovador más allá de lo que fueron diseñados para hacer. La idea de que los modelos podrían «actuar de manera inesperada» y plantear riesgos de seguridad resulta ser una preocupación exagerada.
El estudio también contrasta con la idea de capacidades emergentes en los LLM, como la habilidad para responder a preguntas sobre temas no programados previamente. Los investigadores probaron varios modelos y no encontraron evidencia de razonamiento complejo emergente o de habilidades más allá de las programadas.
A pesar de estos hallazgos, la coautora Iryna Gurevych advierte que esto no significa que la IA sea inofensiva. La verdadera amenaza radica en el mal uso que los humanos pueden dar a estas tecnologías, como la creación de noticias falsas o fraudes. Por lo tanto, Gurevych sugiere que futuras investigaciones deberían enfocarse en los riesgos asociados con el uso indebido de los modelos de IA en lugar de en amenazas hipotéticas de capacidades emergentes.
Aunque los LLM no parecen ser una amenaza inminente para la humanidad según el estudio, la necesidad de vigilancia y regulación sigue siendo crucial para mitigar los riesgos asociados con su mal uso.