Getting your Trinity Audio player ready...
|
Las empresas de tecnología más grandes del mundo se han comprometido a evitar que el contenido «engañoso» generado por inteligencia artificial interfiera con las elecciones mundiales de este año, mientras aumentan los temores sobre el impacto de la desinformación en la democracia.
Amazon, Google, Meta, Microsoft, TikTok y OpenAI se encuentran entre las 20 empresas de tecnología que dijeron el viernes durante la Conferencia de Seguridad de Munich que trabajarían juntas para combatir la creación y difusión de contenido diseñado para engañar a los votantes, como imágenes y videos «deepfake». y audio.
Según el acuerdo voluntario firmado por las empresas, el rápido desarrollo de la IA estaba “creando nuevas oportunidades así como desafíos para el proceso democrático”, y la difusión de contenido engañoso podría “poner en peligro la integridad de los procesos electorales”.
«Con tantas elecciones importantes este año, es vital que hagamos todo lo posible para evitar que la gente sea engañada por el contenido generado por IA», dijo Nick Clegg, presidente de asuntos globales de Meta. «Este trabajo es más grande que el de cualquier empresa y requerirá un enorme esfuerzo por parte de la industria, el gobierno y la sociedad civil».
Brad Smith, vicepresidente y presidente de Microsoft, añadió que las empresas tienen «la responsabilidad de ayudar a garantizar que estas herramientas no se conviertan en armas en las elecciones».
El acuerdo se produce en el contexto de una creciente preocupación entre legisladores y expertos sobre la posibilidad de que la IA generativa ponga en peligro elecciones de alto perfil que se celebrarán este año, incluso en Estados Unidos, Reino Unido e India.
Las empresas de tecnología que operan importantes plataformas de redes sociales como Facebook, X y TikTok han enfrentado un escrutinio durante años sobre la existencia de contenido dañino en sus sitios y cómo lo abordan.
Pero la explosión del interés y la disponibilidad de herramientas de IA generativa ha alimentado la preocupación sobre cómo la tecnología podría socavar las elecciones en particular. En enero, se envió una llamada automática a los votantes estadounidenses en New Hampshire que afirmaba ser del presidente Joe Biden pidiéndoles que no votaran en las elecciones primarias. El año pasado, se encontraron clips falsos de políticos supuestamente creados con inteligencia artificial y luego difundidos en línea en el Reino Unido, India, Nigeria, Sudán, Etiopía y Eslovaquia.
Las 20 empresas de tecnología que firmaron el acuerdo del viernes dijeron que trabajarían “en colaboración” en herramientas para erradicar la propagación de contenido dañino de IA relacionado con las elecciones en sus plataformas, y tomarían medidas de manera “rápida y proporcionada”.
Los esfuerzos podrían incluir agregar marcas de agua a las imágenes que dejen en claro su procedencia y si han sido alteradas, por ejemplo.
Las empresas también se comprometieron a ser transparentes sobre cómo abordaban ese contenido engañoso y dijeron que evaluarían sus modelos de IA generativa, como los que están detrás del chatbot ChatGPT de OpenAI, para comprender mejor los riesgos relacionados con las elecciones que podrían plantear.
El acuerdo es el último de una serie de compromisos voluntarios en torno a la IA que las grandes empresas tecnológicas han asumido en los últimos meses. El año pasado, grupos como OpenAI, Google DeepMind y Meta acordaron abrir sus modelos de IA generativa para su revisión por parte del Instituto de Seguridad de IA de Gran Bretaña.
Este mes, como parte de unirse a la iniciativa de la industria Coalición para la Procedencia y Autenticidad del Contenido, Google dijo que estaba “explorando activamente” si podría implementar herramientas de marcas de agua que mostraran cómo se había creado una imagen.
Meta también dijo en febrero que comenzaría a etiquetar las imágenes generadas por IA que los usuarios publican en Facebook, Instagram y Threads «en los próximos meses».
Fuente: https://www.ft.com/content/8dcbc162-a0f5-47ce-a2ea-5fb25cb160c5