Varias de las principales empresas estadounidenses que desarrollan IA han acordado trabajar con el gobierno de EE. UU. y comprometerse con varios principios para garantizar la confianza del pĂşblico en la IA, comunicĂł el viernes la Casa Blanca.
Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI firmaron los compromisos para hacer que la IA sea segura y confiable. En mayo, la administraciĂłn de Biden habĂa dicho que se reunirĂa con los principales desarrolladores de inteligencia artificial para asegurarse de que fueran coherentes con la polĂtica de EE. UU.
Los compromisos no son vinculantes y no existen sanciones por no cumplirlos. Las polĂticas tampoco pueden afectar retroactivamente los sistemas de IA que ya se han implementado: una de las disposiciones dice que las empresas se comprometerán a probar la IA en busca de vulnerabilidades de seguridad, tanto interna como externamente, antes de lanzarla.
AĂşn asĂ, los nuevos compromisos están diseñados para asegurar al pĂşblico (y, en cierta medida, a los legisladores) que la IA se puede implementar de manera responsable. La administraciĂłn de Biden ya habĂa propuesto usar IA dentro del gobierno para agilizar las tareas.
El bien pĂşblico
Quizás los efectos más inmediatos se sentirán en el arte de la inteligencia artificial, ya que todas las partes acordaron la marca de agua digital para identificar una obra de arte como generada por la IA. Algunos servicios, como Image Creator de Bing, ya lo hacen.
Todos los signatarios tambiĂ©n se comprometieron a utilizar la IA para el bien pĂşblico, como la investigaciĂłn del cáncer, asĂ como a identificar áreas de uso apropiado e inapropiado. Esto no se definiĂł, pero podrĂa incluir las salvaguardas existentes que evitan que ChatGPT, por ejemplo, ayude a planificar un ataque terrorista. Las empresas de IA tambiĂ©n se comprometieron a preservar la privacidad de los datos, una prioridad que Microsoft ha mantenido con las versiones empresariales de Bing Chat y Microsoft 365 Copilot.
Seguridad ciudadana
Todas las empresas se han comprometido a realizar pruebas de seguridad internas y externas de sus sistemas de inteligencia artificial antes de su lanzamiento y a compartir información con la industria, los gobiernos, el público y el mundo académico sobre la gestión de riesgos de IA. También se comprometieron a permitir el acceso de investigadores externos para descubrir y reportar vulnerabilidades.
El presidente de Microsoft, Brad Smith, respaldó los nuevos compromisos y señaló que Microsoft ha sido un defensor del establecimiento de un registro nacional de sistemas de inteligencia artificial de alto riesgo. (Un congresista de California ha pedido una oficina federal que supervise la IA). Google también reveló su propio equipo de piratas informáticos éticos que intentan romper la IA mediante ataques como ataques rápidos, envenenamiento de datos y más.
OpenAI lo afirmaba asĂ en un comunicado:
Como parte de nuestra misiĂłn de construir una AGI segura y beneficiosa, continuaremos probando y refinando prácticas concretas de gobernanza adaptadas especĂficamente a modelos de base de alta capacidad como los que producimos. TambiĂ©n continuaremos invirtiendo en investigaciĂłn en áreas que puedan ayudar a informar la regulaciĂłn, como tĂ©cnicas para evaluar capacidades potencialmente peligrosas en modelos de IA.