Cargando. Por favor, espere

Los riesgos de que se genere información errónea y desinformación a gran escala con sistemas de IA generativa exigen soluciones novedosas

Los riesgos de que se genere información errónea y desinformación a gran escala con sistemas de IA generativa exigen soluciones novedosas

  • 19-9-2023 | LA LEY
  • Un documento de trabajo de la OCDE analiza las principales implicaciones que, en múltiples ámbitos, plantea el uso de la IA generativa, y avanza la necesidad de políticas regulatorias que afronten los diversos retos de nueva naturaleza que se derivan del mismo.
Portada

Carlos B Fernández. El debate público sobre la IA generativa tiene menos de un año, pues el anuncio de su lanzamiento se produjo a finales de noviembre de 2022. Mientras las empresas tecnológicas sacan al mercado aplicaciones de IA generativa, los responsables políticos de todo el mundo se enfrentan a sus implicaciones y a los riesgos que plantean estas tecnologías. Los investigadores aplicados y académicos están inmersos en un intenso debate sobre cómo gestionar la IA generativa, desde las medidas de mitigación en el diseño y desarrollo de modelos hasta su lanzamiento al mercado y más allá.

El camino a seguir no está claro y está repleto de perspectivas divergentes. Un extremo aboga por una moratoria de los experimentos con IA generativa más avanzada que la GPT-4, mientras que el otro cree que los supuestos riesgos existenciales de la IA son exagerados (LeCun y Ng, 2023). Otros -quizá la mayoría- se sitúan en algún punto intermedio.

Independientemente de la postura ideológica sobre estas cuestiones, existe una necesidad urgente de seguir investigando para prepararse para los distintos escenarios futuros posibles de la IA generativa. Dada la gran incertidumbre y el impacto potencialmente grande que la tecnología podría tener tanto a nivel microeconómico como macroeconómico, los responsables políticos deben mantenerse informados y preparados para tomar las medidas adecuadas a través de políticas de IA con visión de futuro.

La realidad, con ejemplos muy recientes, muestra que los riesgos de generar información errónea y desinformación a gran escala con sistemas de IA generativa exigen soluciones novedosas, advierte el informe.

Con esta finalidad, la OCDE ha hecho público un documento en el que analiza las consideraciones de política regulatoria que plantea la IA generativa (INITIAL POLICY CONSIDERATIONS FOR GENERATIVE ARTIFICIAL INTELLIGENCE).

La finalidad de este documento es servir de punto de partida para ayudar a los gobiernos a avanzar en este ámbito, a partir de los trabajos del Observatorio de Políticas de Inteligencia Artificial de la OCDE y de su nuevo Grupo de Expertos sobre el Futuro de la Inteligencia Artificial. Este grupo, junto con los trabajos complementarios realizados en el marco del Comité de Empleo, Trabajo y Asuntos Sociales, el Centro de Recursos DIS/MIS de la OCDE y la iniciativa horizontal de la OCDE Going Digital, aportan ideas y recomendaciones prácticas para los gobiernos.

En síntesis, el documento realiza las siguientes consideraciones

1. El rápido crecimiento de los sistemas de IA generativa está llamado la atención sobre las capacidades de la IA

Los sistemas de inteligencia artificial (IA) generativa crean nuevos contenidos en respuesta a indicaciones basadas en sus datos de entrenamiento. El reciente crecimiento y cobertura de los sistemas de IA generativa ha puesto de relieve las capacidades de la IA. Entre ellos se encuentran, por ejemplo, ChatGPT y BARD para texto; Midjourney y Stable Diffusion para imágenes; WaveNet y DeepVoice para audio; Make-A-Video y Synthesia para vídeo; y sistemas multimodelo que combinan varios tipos de medios. Las empresas están creando puestos para "ingenieros de prompts", los inversores de riesgo se están posicionando como inversores en IA generativa y los gobiernos están estudiando herramientas reguladoras. Los modelos lingüísticos -una modalidad de IA generativa- se analizaron en profundidad en el reciente informe de la OCDE (AI Language Models: Consideraciones tecnológicas, socioeconómicas y políticas), pero otras modalidades, como la generación de imágenes, audio y vídeo, también están evolucionando rápidamente con la tecnología y el panorama político más amplio.

2. Pocas empresas pueden crear grandes sistemas y modelos generativos de IA

Hasta ahora, pocas empresas tecnológicas del mundo tienen las habilidades tecnológicas y el capital necesarios para crear grandes sistemas y modelos generativos de IA, como modelos fundamentales que "sean capaces de realizar una serie de tareas generales...[y] puedan construirse 'sobre ellos' para desarrollar diferentes aplicaciones con muchos fines".

Algunas empresas multinacionales llevan tiempo invirtiendo en IA para habilitar sus modelos de negocio, ya sea en búsquedas, publicidad o redes sociales. Estas entidades parecen posicionadas para captar gran parte del valor inicial creado por la IA generativa, con sistemas comercializados internacionalmente integrados en software como servicio en plataformas en la nube o, más recientemente, colocados directamente en dispositivos.

3. La IA generativa se está adoptando rápidamente en sectores industriales clave

Se prevé que la IA generativa cree un importante valor económico y bienestar social. Las empresas han empezado a adoptar la tecnología para crear nuevas oportunidades de negocio, y las empresas de nueva creación compiten por el capital riesgo. Entre los casos de uso y aplicaciones más populares hasta la fecha se encuentran el preprocesamiento de datos, la compresión y clasificación de imágenes, la imagen médica, la personalización y las interfaces intuitivas de experiencia de usuario (UX).

4. La IA generativa amplía considerablemente la escala y el alcance de la desinformación

Ya en 2022 se descubrió que, en el 50 % de los casos, los humanos eran prácticamente incapaces de diferenciar las noticias generadas por IA de las generadas por humanos, lo que significa que la IA generativa puede amplificar los riesgos tanto de desinformación (la difusión involuntaria de información falsa) como de desinformación deliberada por parte de agentes malintencionados.

Los modelos de IA generativa de vanguardia tienen capacidades multimodales que pueden exacerbar estos riesgos, por ejemplo, combinando texto con imagen o vídeo o incluso voces. La desinformación no intencionada o el engaño intencionado pueden causar daños materiales a nivel individual (por ejemplo, influir en la toma de decisiones sobre la utilidad de las vacunas) y, a mayor escala, erosionar la confianza de la sociedad en el ecosistema de la información y el intercambio de información basada en hechos que sustenta la ciencia, la toma de decisiones basada en pruebas y la democracia. Los resultados de investigaciones relacionadas con la interpretación humana de contenidos generados por IA subrayan el riesgo potencial de desinformación y desinformación impulsadas por IA, y destacan la importancia de revelar el uso de sistemas de IA.

5. El problema de las "alucinaciones" y el exceso de confianza que genera la IA generativa

Otra característica preocupante de los LLM es su propensión a "alucinar" (es decir, a generar resultados incorrectos pero convincentes), sobre todo cuando no hay una respuesta disponible en los datos de entrenamiento. Esto puede permitirles crear desinformación convincente, discursos de odio o reproducir sesgos. Los riesgos también incluyen una confianza excesiva en el modelo, lo que da lugar a una dependencia que puede interferir con el desarrollo de habilidades, e incluso llevar a perderlas.

Este problema se agravará a medida que aumenten las capacidades del modelo, los ámbitos de aplicación y la confianza de los usuarios, ya que los usuarios medios no podrán verificar las respuestas de los modelos. Los riesgos asociados a los modelos de IA generativa de texto a imagen ponen de manifiesto la rapidez del progreso tecnológico. Numerosas "fotografías" en Twitter y otras plataformas en línea mostraban a conocidos personajes políticos y jefes de Estado realizando acciones sorprendentes y, sin embargo, muy creíbles, lo que demuestra el poder de las imágenes sintéticas, sobre todo en contextos políticos polarizados.

Otro problema ha sido la manipulación de imágenes científicas para producir información errónea y desinformación, amenazando la confianza dentro de las comunidades de investigación, así como la reputación de la ciencia ante el público en general. El uso de imágenes sintéticas por los negacionistas del cambio climático y la difusión de la desinformación COVID-19 son ejemplos de ello.

6. Mitigar la desinformación y la información errónea exige aprovechar y mejorar las soluciones conocidas

Los riesgos de generar información errónea y desinformación a gran escala con sistemas de IA generativa exigen soluciones novedosas. Las empresas y otras organizaciones se han enfrentado durante mucho tiempo a problemas relacionados con la información incorrecta o falsa y han puesto en marcha sistemas para resolverlos. Sin embargo, la comprobación de hechos tradicional y otras soluciones existentes no suelen ser escalables frente a la automatización de la desinformación basada en IA. La educación de los usuarios por sí sola resulta insuficiente cuando la IA genera una desinformación cada vez más convincente. Además, esta idea, considera el informe, traslada la responsabilidad de los sistemas, las empresas y los gobiernos a los individuos.

En consecuencia, aunque los investigadores están explorando posibles vías, todavía hay más preguntas que respuestas sobre los posibles remedios a la desinformación generada y difundida por la IA.

7. Los modelos de IA generativa pueden reproducir sesgos presentes en sus datos de entrenamiento

La IA generativa puede hacerse eco, automatizar y perpetuar los prejuicios sociales, los estereotipos y la discriminación al absorber los sesgos contenidos en los recursos utilizados como datos de entrenamiento. En el caso de los modelos lingüísticos, se trata de recursos lingüísticos o de los propios modelos lingüísticos, incluidos los modelos preentrenados. Estos resultados podrían marginar o excluir aún más a grupos específicos. Algunos ejemplos son los modelos que muestran un sentimiento negativo hacia grupos sociales, vinculan las ocupaciones al género o expresan prejuicios respecto a una religión concreta.

8. Cuestiones de derechos de propiedad intelectual (DPI), incluidos los derechos de autor

La IA generativa plantea problemas de derechos de propiedad intelectual, en particular en relación con el contenido no autorizado de los datos de entrenamiento, la posible infracción de derechos de autor, patentes y marcas de las creaciones de IA, y la propiedad de las obras generadas por IA. Los modelos de IA generativa se entrenan con datos que incluyen material protegido por derechos de autor no autorizado Los modelos de IA generativa se están entrenando con cantidades masivas de datos que incluyen datos protegidos por derechos de autor, en su mayoría sin autorización de los propietarios de los derechos.

En 2019, la Organización Mundial de la Propiedad Intelectual (OMPI) convocó sesiones sobre las implicaciones de la IA para la PI. En mayo de 2020, la Secretaría de la OMPI publicó un documento sobre la política de PI y la IA en el que se destacaban ocho cuestiones clave, entre ellas cuestiones como si el uso de datos protegidos por derechos de autor sin autorización constituye una infracción de los derechos de autor y, en caso afirmativo, si debería existir una excepción que permita el entrenamiento de modelos de aprendizaje automático

9. La IA generativa podría afectar a los mercados de trabajo a una escala y con un alcance diferentes

Aunque hasta la fecha la IA ha repercutido principalmente en la calidad de los puestos de trabajo más que en su cantidad, hay indicios de que los mercados laborales podrían sufrir pronto una importante sacudida con efectos tanto positivos como negativos. El progreso tecnológico, la caída de los costes y la creciente disponibilidad de trabajadores con conocimientos de IA indican que las economías de la OCDE podrían estar al borde de una revolución de la IA. Los avances en IA generativa han aumentado la atención sobre el impacto potencial de la IA en los mercados laborales. Además de los modelos lingüísticos, cada vez se presta más atención a modos como la generación de imágenes, audio y vídeo. Las capacidades multimodales que combinan la generación de texto e imágenes, como las de GPT-4 publicadas por OpenAI en marzo de 2023, podrían ampliar aún más la gama de acciones que realizan los sistemas de IA y, por tanto, sus posibles repercusiones en el mercado laboral.

La OCDE concluye a este respecto que las ocupaciones con mayor riesgo de automatización por la IA representan alrededor del 27% del empleo y que una parte significativa de los trabajadores (tres de cada cinco) temen perder totalmente su empleo a manos de la IA en los próximos diez años, en particular los que ya trabajan con ella.

La llegada de las últimas tecnologías de IA generativa aumentará sin duda la preocupación por la automatización en una amplia gama de categorías laborales. Las investigaciones sobre la IA generativa basada en el lenguaje revelan que el 32,8% de los puestos de trabajo de la Clasificación Internacional Uniforme de Ocupaciones (CIUO) podrían verse afectados en su totalidad, el 36,5% parcialmente y sólo el 30,7% no se verían afectados por los modelos de IA generativa. Esto presiona a las organizaciones para que se adapten a la IA generativa y apoyen a sus plantillas, y a los responsables políticos para que dirijan la evolución y las transiciones del mercado laboral.

Se espera que la IA generativa agrave los problemas existentes asociados a la IA. La IA generativa puede exacerbar problemas que ya están en el radar de la OCDE y los gobiernos e introducir nuevos riesgos y problemas de seguridad derivados de la carrera por lanzar nuevos sistemas de IA y sus fundamentos tecnológicos. Cuestiones a corto plazo, a menudo arraigadas en oportunidades y retos actuales, que los responsables políticos deberían considerar debido a su urgencia y potencial de impacto.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll