Florida AG inicia una investigación sobre las supuestas amenazas de OpenAI

El Fiscal General de Florida investiga la posible conexión de OpenAI con un tiroteo en un campus y denuncias de daños a menores y preocupaciones de seguridad nacional.
La investigación se produce en medio de crecientes preocupaciones sobre la social impactos de la tecnología de inteligencia artificial avanzada. La oficina de Uthmeier examinará si los modelos de IA de OpenAI, incluido ChatGPT, han contribuido a comportamientos peligrosos o ilegales, particularmente entre los usuarios jóvenes.
La investigación también analizará los riesgos potenciales para la seguridad nacional planteados por la tecnología de IA de OpenAI y cualquier vínculo entre la empresa y el año pasado tiroteo en la Universidad Estatal de Florida, que dejó tres personas muertas.
Uthmeier ha expresado preocupación por la accesibilidad de poderosas herramientas de inteligencia artificial para los menores y el potencial de uso indebido, incluida la creación de contenido violento o extremista. La investigación tendrá como objetivo determinar si OpenAI ha tomado medidas adecuadas para proteger a los usuarios vulnerables y salvaguardar los intereses de seguridad nacional.
OpenAI se ha enfrentado a un escrutinio cada vez mayor en los últimos meses por los impactos sociales de sus modelos de lenguaje avanzado, que han demostrado capacidades notables pero también han aumentado preocupaciones éticas en torno a la privacidad, la desinformación y el potencial de uso indebido.
La investigación en Florida es el último ejemplo de organismos reguladores y encargados de formular políticas que buscan comprender y mitigar los riesgos asociados con el rápido avance de la tecnología de IA. A medida que ChatGPT y otros sistemas de IA sigan evolucionando y volviéndose más accesibles, es probable que se intensifique la necesidad de una supervisión y regulación integrales.
OpenAI aún no ha comentado sobre la investigación de Florida AG, pero la compañía ha expresado previamente su compromiso con responsabilidad desarrollo e implementación de sus modelos de IA. El resultado de esta investigación podría tener implicaciones significativas para la regulación futura y la percepción pública de la industria de la IA en su conjunto.
Fuente: TechCrunch


