IPS, 11 de abril, 2023.- Tras el pedido de más de 1000 profesionales de la tecnología para que se haga una pausa en el desarrollo de la inteligencia artificial (IA), incluido el nuevo modelo de lenguaje Chat GPT, la Unesco pidió este viernes 31 la implementación inmediata del marco ético global sobre esa materia.
“El mundo necesita reglas éticas para la inteligencia artificial, es el desafío de nuestro tiempo. La Recomendación de la Unesco sobre la ética de la IA establece el marco normativo apropiado”, dijo Audrey Azoulay, directora general de esa Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura.
La Unesco sostiene que ese marco normativo global, adoptado por unanimidad por los 193 Estados miembros en noviembre de 2021, proporciona las garantías necesarias.
“Ahora es urgente que todos traduzcan este marco en estrategias y regulaciones nacionales. Debemos traducir los compromisos en acción”, dijo Azoulay.
La Recomendación se describe como primer marco normativo global para el uso ético de la IA, a modo de hoja de ruta para los países, que describe cómo amplificar los beneficios y reducir los riesgos que conlleva esta tecnología.
Incluye acciones políticas en 10 áreas específicas: Evaluación de impacto ético, Gobernanza y rectoría éticas, Política de datos, Desarrollo y cooperación internacional, Medio ambiente y ecosistemas, Género, Cultura, Educación e investigación, Economía y trabajo, y Salud y bienestar social.
“El mundo necesita reglas éticas para la inteligencia artificial, es el desafío de nuestro tiempo. La Recomendación de la Unesco sobre la ética de la IA establece el marco normativo apropiado”: Audrey Azoulay.
La Recomendación pide que se actúe más allá de lo que hacen las empresas tecnológicas y los gobiernos para garantizar a las personas mayor protección, transparencia, capacidad de actuar y control de sus datos personales.
Afirma que todos los individuos deberían poder acceder a sus registros de datos personales o incluso borrarlos. También incluye acciones para mejorar la protección de los datos y el conocimiento y derecho del individuo a controlar sus propios datos.
Además, aumenta la capacidad de los organismos reguladores de todo el mundo para hacerla cumplir.
En segundo lugar, prohíbe explícitamente el uso de sistemas de IA para la calificación social y la vigilancia masiva.
Destaca que este tipo de tecnologías son muy invasivas, vulneran los derechos humanos y las libertades fundamentales, y se utilizan de forma generalizada.
La Recomendación subraya que, a la hora de desarrollar marcos normativos, los Estados tengan en cuenta que la responsabilidad última y la rendición de cuentas deben recaer siempre en los seres humanos, y que no se debe otorgar personalidad jurídica a las tecnologías de IA por sí mismas.
También sienta bases de las herramientas para ayudar a países y empresas a evaluar el impacto de esos sistemas en las personas, la sociedad y el medio ambiente, y anima a los Estados a que consideren añadir un funcionario independiente de ética de la IA u otro mecanismo similar de seguimiento.
Subraya que los actores de la IA deben favorecer métodos eficaces en cuanto a datos, energía y recursos que ayuden a garantizar que se convierta en una herramienta destacada en la lucha contra el cambio climático, y en el tratamiento de los problemas medioambientales.
Pide a los gobiernos que evalúen el impacto medioambiental directo e indirecto a lo largo del ciclo de vida del sistema de IA, lo que incluye su huella de carbono, el consumo de energía y el impacto ambiental de la extracción de materias primas para apoyar la fabricación de tecnologías.
La Unesco se declaró especialmente preocupada por las cuestiones éticas que plantean estas innovaciones en los campos de la lucha contra la discriminación y los estereotipos, incluidos los temas de género, la fiabilidad de la información, la privacidad y la protección de los datos, los derechos humanos y ambientales.
Además, considera que la autorregulación de la industria no es suficiente para evitar estos daños éticos, y aboga por establecer normas para que, cuando se produzcan daños, existan mecanismos de rendición de cuentas y reparación que sean fáciles de solicitar por parte de las personas interesadas. .
Más de 40 países de todas las regiones del mundo ya están trabajando con la Unesco para desarrollar estas salvaguardas de IA basadas en la Recomendación.
El nuevo llamado de la Unesco llegó dos días después de que un millar de profesionales y empresarios de las nuevas tecnologías firmasen un llamado a hacer una pausa de seis meses en la investigación sobre IA aún más potentes que ChatGPT 4, el modelo recién lanzado por la firma estadounidense OpenAI.
Los firmantes advirtieron “grandes riesgos para la humanidad” en el nuevo modelo, y abogaron por “sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, y técnicas que ayuden a distinguir entre lo real y lo artificial”.
Asimismo, defendieron que existan “instituciones capaces de hacer frente a la dramática perturbación económica y política (especialmente para la democracia) que causará la IA”, sin los controles adecuados.
Entre los firmantes de la petición figuraron el magnate de las firmas Space X, Tesla y Twitter, Elon Musk; el cofundador del gigante Apple, Steve Wozniak, y el escritor e historiador israelí Yuval Noah Hariri.
Enlace de la Carta abierta FLI: Pausar los experimentos gigantes de la IA: https://futureoflife.org/open-letter/pause-giant-ai-experiments/
----
Fuente: Publicado en Inter Press Service (IPS) el 31 de marzo de 2023 y reproducido en Servindi respetando sus condiciones: https://bit.ly/41ahtc6
Te puede interesar:
La otra guerra: entre el tecnoautoritarismo y el capitalismo de vigilancia
Foto: Nueva Sociedad
La guerra en Ucrania puede ser aquella en la que las dos grandes tendencias globales de digitalización y las plataformas sociales midan sus fuerzas: el tecnoautoritarismo de Rusia y China contra el capitalismo de vigilancia de Silicon Valley. Seguir leyenda...