IA: ¿Qué reglas buscan instalar los magnates tecnológicos?
9 de noviembre de 2023A medida que la inteligencia artificial (IA) reconfigura las industrias y el propio tejido social, los responsables políticos debaten sobre cómo regularla. En la discusión, los representantes de las principales empresas tecnológicas del mundo se han erigido como voces destacadas.
Sin embargo, investigadores y activistas expresan su preocupación por la creciente influencia de las grandes empresas tecnológicas de origen estadounidense en el debate. Además, advierten se podrían eclipsar cuestiones críticas como la violación de la privacidad y la protección de los trabajadores. "Hemos visto cómo estas empresas se las arreglan hábilmente para establecer los términos de cómo debe ser el debate", declara a DW Gina Neff, Directora Ejecutiva del Centro Minderoo de Tecnología y Democracia de la Universidad de Cambridge.
Estas son las voces más influyentes y lo que defienden:
Elon Musk: el profeta de la fatalidad
Durante años, el empresario Elon Musk ha hecho sonar la alarma sobre el impacto potencialmente catastrófico de la IA en la civilización. Ya en 2018, declaró que esta tecnología era "mucho más peligrosa que las armas nucleares". Pero al mismo tiempo, Musk ha advertido contra la supervisión excesiva, diciendo que los gobiernos deben evitar "cargarla con regulaciones que inhiban el lado positivo de la IA".
Daniel Leufer, analista político senior del grupo de derechos digitales Access Now, en Bruselas, señala que Musk "está desviando la atención hacia cosas que son bastante especulativas y a menudo pertenecientes al reino de la ciencia ficción".
Sam Altman: el susurrador de reguladores
En noviembre de 2022, OpenAI, con sede en San Francisco, lanzó ChatGPT, convirtiéndose en la primera empresa en poner a disposición del público en línea un sistema de IA generativa a gran escala. Desde entonces, el consejero delegado de la empresa, Sam Altman, se ha embarcado en una gira mundial para reunirse con legisladores desde Washington D.C. hasta Bruselas y debatir cómo regular la IA.
Altman ha advertido que las aplicaciones de IA de alto riesgo podrían causar "daños significativos al mundo" y necesitan ser reguladas. Al mismo tiempo, ha ofrecido la experiencia de OpenAI para guiar a los responsables políticos. Para Gina Neff, profesora de la Universidad Cambridge, "es una comunicación corporativa brillante". Opina que "en esencia dice: 'no confíen en nuestros competidores, no confíen en ustedes mismos, confíen en nosotros para hacer este trabajo'".
Mark Zuckerberg: el gigante silencioso
En lo que respecta a Meta, otra empresa líder en el desarrollo de la IA, su consejero delegado, Mark Zuckerberg, ha permanecido en silencio. En un discurso pronunciado en septiembre ante legisladores estadounidenses, Zuckerberg abogó por la colaboración entre responsables políticos, académicos, sociedad civil e industria "para minimizar los riesgos potenciales de esta nueva tecnología, pero también para maximizar sus posibles beneficios." Aparte de eso, parece haber delegado en gran medida el debate normativo en sus adjuntos, como el Presidente de Asuntos Globales de Meta, Nick Clegg.
Darío Amodei: el nuevo
Por último está Anthropic. Fundada en 2021 por antiguos miembros de OpenAI, esta empresa de IA centrada en la seguridad no ha tardado en atraer importantes inversiones. Durante un reciente discurso ante los legisladores en la cumbre sobre seguridad de la IA celebrada en Bletchley Park, Amodei advirtió que, aunque los peligros que plantean los actuales sistemas de IA pueden ser relativamente limitados, es "probable que lleguen a ser muy graves en un futuro próximo".
Para hacer frente a estas amenazas, Amodei presentó a los legisladores una metodología desarrollada por su empresa. Sin embargo, Daniel Leufer, activista de derechos digitales de la ONG Access Now, advierte del peligro de depender excesivamente de empresas como Anthropic para elaborar políticas. "Debemos tener mucho cuidado con dejar que marquen la agenda", dice Leifert.
(mn/ers)