Varias de las principales empresas estadounidenses que desarrollan IA han acordado trabajar con el gobierno de EE. UU. y comprometerse con varios principios para garantizar la confianza del público en la IA, comunicó el viernes la Casa Blanca.
Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI firmaron los compromisos para hacer que la IA sea segura y confiable. En mayo, la administración de Biden había dicho que se reuniría con los principales desarrolladores de inteligencia artificial para asegurarse de que fueran coherentes con la política de EE. UU.
Los compromisos no son vinculantes y no existen sanciones por no cumplirlos. Las políticas tampoco pueden afectar retroactivamente los sistemas de IA que ya se han implementado: una de las disposiciones dice que las empresas se comprometerán a probar la IA en busca de vulnerabilidades de seguridad, tanto interna como externamente, antes de lanzarla.
Aún así, los nuevos compromisos están diseñados para asegurar al público (y, en cierta medida, a los legisladores) que la IA se puede implementar de manera responsable. La administración de Biden ya había propuesto usar IA dentro del gobierno para agilizar las tareas.
El bien público
Quizás los efectos más inmediatos se sentirán en el arte de la inteligencia artificial, ya que todas las partes acordaron la marca de agua digital para identificar una obra de arte como generada por la IA. Algunos servicios, como Image Creator de Bing, ya lo hacen.
Todos los signatarios también se comprometieron a utilizar la IA para el bien público, como la investigación del cáncer, así como a identificar áreas de uso apropiado e inapropiado. Esto no se definió, pero podría incluir las salvaguardas existentes que evitan que ChatGPT, por ejemplo, ayude a planificar un ataque terrorista. Las empresas de IA también se comprometieron a preservar la privacidad de los datos, una prioridad que Microsoft ha mantenido con las versiones empresariales de Bing Chat y Microsoft 365 Copilot.
Seguridad ciudadana
Todas las empresas se han comprometido a realizar pruebas de seguridad internas y externas de sus sistemas de inteligencia artificial antes de su lanzamiento y a compartir información con la industria, los gobiernos, el público y el mundo académico sobre la gestión de riesgos de IA. También se comprometieron a permitir el acceso de investigadores externos para descubrir y reportar vulnerabilidades.
El presidente de Microsoft, Brad Smith, respaldó los nuevos compromisos y señaló que Microsoft ha sido un defensor del establecimiento de un registro nacional de sistemas de inteligencia artificial de alto riesgo. (Un congresista de California ha pedido una oficina federal que supervise la IA). Google también reveló su propio equipo de piratas informáticos éticos que intentan romper la IA mediante ataques como ataques rápidos, envenenamiento de datos y más.
OpenAI lo afirmaba así en un comunicado:
Como parte de nuestra misión de construir una AGI segura y beneficiosa, continuaremos probando y refinando prácticas concretas de gobernanza adaptadas específicamente a modelos de base de alta capacidad como los que producimos. También continuaremos invirtiendo en investigación en áreas que puedan ayudar a informar la regulación, como técnicas para evaluar capacidades potencialmente peligrosas en modelos de IA.