Cargando. Por favor, espere

Seis previsiones sobre la IA en 2024

  • 15-1-2024 | LA LEY
  • Un grupo de profesores y expertos del Centro de inteligencia artificial de la Universidad de Stanford han presentado sus previsiones sobre la posible evolución de esta tecnología a lo largo del año que estamos empezando.
Portada

Carlos B Fernández. En estos tiempos de cambios tecnológicos tan acelerados, resulta difícil pronosticar a medio plazo (6-12 meses), cuál va a ser el impacto de una novedad concreta en un sector o conjunto de sectores.

El surgimiento masivo de la IA generativa a partir de finales de 2022 ha traído consigo múltiples intentos al respecto, algunos tan desinformados como desorientados.

Por eso merece la pena prestar atención a las opiniones procedentes de centros tan prestigiosos como el Centro de la Universidad de Stanford para una IA centrada en el ser humano (Stanford HAI).

En su reciente documento “What to Expect in AI in 2024”, siete profesores y expertos de este centro han anticipado sus previsiones sobre lo que cabe esperar que aportará la IA en 2024. Son las siguientes:

- Cambios en el trabajo de “cuello blanco”

Según Erik Brynjolfsson, Director del Stanford Digital Economy Lab, es previsible que la adopción masiva de la IA por parte de las empresas empiece a aportar algunas de las ventajas de productividad que se llevan esperando hace mucho tiempo.

Esta adopción afectará en particular a los trabajadores del conocimiento, un sector de profesionales que se han librado en gran medida de la revolución informática de los últimos 30 años. Esto incluye a trabajadores creativos, abogados, profesores de finanzas, etc.

La adopción de esta tecnología debería mejorar su trabajo y permitirles hacer cosas que antes no podían hacer. Y aunque advierte de que esta rara vez automatizará por completo un trabajo, sí aumentará y ampliará lo que pueden hacer.

- Proliferación de las Deep Fakes

James Landay, profesor de informática prevé la llegada de nuevos y grandes modelos multimodales, sobre todo para la generación de vídeos. Esto, a su vez, traerá como consecuencia que tendremos que estar más atentos a los deepfakes graves: veremos la propagación de vídeos en los que la gente "dice" cosas que nunca dijo. Frente a ello, consumidores y votantes deben ser muy conscientes.

Aunque no deberíamos preocuparnos porque la IA vaya a apoderarse del mundo, sí deberíamos estarlo por los riesgos de desinformación y difusión de Deep fakes que, sin duda, veremos en 2024.

- Escasez de microprocesadores

Russ Altman, Catedrático de Ciencia de Datos Biomédicos y Miembro Senior de Stanford HAI, se reconoce preocupado por la escasez mundial de microprocesadores GPU (graphics processing unit), los procesadores especiales sobre los que se ejecuta gran parte de la IA.

Ello se debe a que, cada vez con más frecuencia, las grandes empresas están tratando de implantar sus propias capacidades de inteligencia artificial, lo que está propiciando la escasez de estos componentes, ya que existen pocas empresas que los fabriquen y estas se encuentran al límite de su capacidad.

Esta circunstancia ejercerá una enorme presión, no sólo para aumentar la producción de GPU, sino para que los innovadores presenten soluciones de hardware más baratas y fáciles de fabricar y utilizar.

- Agentes inteligentes más útiles

Peter Norvig, Distinguished Education Fellow de Stanford HAI, espera, por una parte, que este auge de los sistemas de IA traiga la posibilidad de conectarse a otros servicios para hacer cosas. Si 2023 fue el año de poder chatear con una IA, basado siempre en que el usuario escribía algo y ella te respondía, Norvig espera que en 2024, estos agentes puedan hacer cosas por ti, como gestionar reservas, planificar un viaje o conectar con otros servicios.

Además, cree que daremos pasos hacia la multimedia, en un proceso que llevará más de un año. Así, aunque hasta ahora nos hemos centrado mucho en los modelos lingüísticos y, posteriormente, en los de imagen, en algún momento, tendremos suficiente capacidad de procesamiento para hacer también vídeos. Dada la enorme cantidad de material de este tipo actualmente disponible en Internet, algo de lo que los modelos de IA anteriores habían carecido, se prevé que estos modelos lo entenderán todo mejor.

- Posible regulación estadounidense

El instituto estadounidense no olvida la propuesta de Reglamento europeo de IA, pero se centra, como es lógico, en su ámbito nacional. En este sentido destaca que, aunque, por ser 2024 año electoral, no parece previsible que este vaya a ser un año muy propicio para que se produzcan grandes reformas regulatorias, en opinión de Fei-Fei Li, catedrática del Departamento de Informática y codirector de Stanford HAI, merecerá la pena seguir de cerca la política sobre IA en 2024.

Si en julio de 2023 el Congreso de los EEUU presentó la ley bipartidista y bicameral CREATE AI Act para dar a estudiantes e investigadores acceso a recursos, datos y herramientas de IA, que recibió un amplio apoyo, a finales de octubre, el Presidente Biden firmó una Orden Ejecutiva (OE) sobre el Desarrollo y Uso Seguro y Fiable de la Inteligencia Artificial que demuestra el compromiso de su administración no sólo para fomentar un ecosistema de IA dinámico, sino también para aprovechar y gobernar la tecnología. Habrá que estar atentos al devenir de estas propuestas.

Pero, además, como advierte Jennifer King, Becaria de Política de Privacidad y Datos de Stanford HAI, en el ámbito interno del país, dos estados de EE.UU. -California y Colorado- habrán adoptado, a mediados de este año, sendas normativas sobre la toma de decisiones automatizada en el contexto de la privacidad de los consumidores. Aunque estas normativas se limitan a los sistemas de IA que se entrenan o recopilan información personal de los individuos, ambas ofrecen a los consumidores el derecho a optar por no participar en el uso de la IA por parte de sistemas que tienen un impacto significativo, como en la contratación o los seguros. Por tanto, las empresas van a tener que empezar a pensar en lo que significa sobre el terreno que los clientes ejerzan sus derechos, sobre todo en masa.

- El tiempo de las grandes preguntas

Finalmente, Ge Wang, profesor de Stanford HAI, considera que este año será el de formular las grandes preguntas que se plantean en torno a esta tecnología, “las preguntas difíciles, las preguntas críticas sobre lo que queremos de la inteligencia artificial en nuestras vidas, en nuestras comunidades, en la educación, en nuestra sociedad”.

En opinión de este experto, deberíamos darnos el tiempo y el espacio necesarios para articular lo que consideramos permisible y dónde debemos poner los límites.

Una de las primeras reflexiones sobre esta generación actual de IA fue en febrero de 2023, cuando la editorial de revistas académicas Springer Publishing emitió una declaración en la que afirmaba que los grandes modelos lingüísticos se pueden utilizar en la redacción de artículos, pero no se permitirán como coautores en ninguna publicación. Y la razón que citaron, es la responsabilidad. Este es, en su opinión, el aspecto crítico. Se trata de exponer el problema con seriedad, comprender cuáles son sus fundamentos y decidir que así es como lo entendemos ahora, aunque en el futuro podamos añadir más matices a estas políticas.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll