Experto en IA advierte sobre carrera armamentista AGI en prueba de OpenAI

Stuart Russell, renombrado investigador de IA, testifica en el juicio de OpenAI sobre los riesgos de la competencia en inteligencia artificial general entre gobiernos y laboratorios.
Stuart Russell, una de las voces más respetadas del mundo en la investigación de inteligencia artificial, se ha convertido en una figura crítica en el proceso legal en curso contra OpenAI. El renombrado científico informático, que ha pasado décadas estudiando las implicaciones de los sistemas de inteligencia artificial avanzados, subió al estrado como testigo experto con un mensaje aleccionador: la competencia global para desarrollar tecnologías de IA cada vez más poderosas podría desencadenar una carrera armamentista peligrosa y desestabilizadora que amenace los intereses humanos.
La participación de Russell en el ensayo representa un momento significativo en el debate en curso sobre cómo las sociedades deberían regular los laboratorios de IA de vanguardia y su carrera hacia sistemas más capaces. Su testimonio se basa en décadas de investigación sobre la seguridad, la ética y la gobernanza de la IA, lo que lo convierte en una voz excepcionalmente calificada sobre los riesgos existenciales que plantea el desarrollo desenfrenado de la IA. El científico informático ha argumentado constantemente que sin una supervisión adecuada y cooperación internacional, la búsqueda de inteligencia general artificial (AGI) podría convertirse en una dinámica competitiva en la que cada actor importante, ya sea gobierno o empresa privada, se sienta obligado a tomar atajos en las medidas de seguridad.
A lo largo de su carrera, Russell ha expresado claramente la necesidad de que los gobiernos desempeñen un papel más activo en el control y dirección del desarrollo de tecnologías de inteligencia artificial de vanguardia. Su trabajo académico y sus declaraciones públicas han enfatizado que lo que está en juego en el desarrollo de la AGI es demasiado alto como para depender únicamente de compromisos voluntarios de la industria o incentivos impulsados por el mercado. En cambio, Russell aboga por una regulación gubernamental del desarrollo de la IA, similar a cómo se han regulado en el pasado la tecnología nuclear y otras innovaciones potencialmente peligrosas.
El concepto de carrera armamentista AGI sobre el que advierte Russell representa un escenario de pesadilla particular para los defensores de la seguridad de la IA. In this scenario, countries and companies become so focused on achieving AGI capability first that they deprioritize safety research and oversight mechanisms. Cada competidor teme que si reducen la velocidad para implementar medidas de seguridad sólidas, quedarán detrás de rivales que son menos cautelosos. Esto crea un clásico
Fuente: TechCrunch


