Andrew Ng, uno de los nombres más influyentes en la inteligencia artificial, ha levantado una dura crítica contra las grandes corporaciones tecnológicas. Según Ng, el alarmismo sobre la posibilidad de que la IA pueda llevar a la extinción de la humanidad no solo es exagerado, sino que está siendo utilizado como un «arma» para manipular al público y a los gobiernos, con el fin de promover regulaciones que aplastarían a los competidores más pequeños. La premisa central es clara: grandes compañías como OpenAI buscan un entorno legal que imponga pesadas restricciones a la industria, algo que las startups o los desarrolladores de código abierto no podrían soportar, consolidando aún más su dominio en el mercado.
Big tech y el miedo como arma regulatoria
Ng, profesor en Stanford y cofundador de Google Brain, se mostró contundente en su entrevista con el Australian Financial Review. «La idea de que la IA podría hacernos extinguir es parte de una estrategia diseñada para capturar la regulación de la industria», advirtió. Además, apuntó que estas propuestas van de la mano con la noción de que imponer un régimen de licencias sobre el desarrollo de IA sería una forma efectiva de hacerla más segura, cuando en realidad, esto aplastaría la innovación. Según Ng, el verdadero riesgo es que la regulación excesiva cree barreras de entrada que favorezcan a las grandes tecnológicas y frenen el avance de proyectos más pequeños e independientes.
En 2023, líderes como Sam Altman, CEO de OpenAI, y figuras prominentes como Elon Musk firmaron cartas abiertas alertando sobre los peligros existenciales de la IA, mientras pedían una moratoria en el desarrollo de modelos avanzados. Ng, quien fue profesor de Altman en Stanford, no critica directamente a su antiguo estudiante, pero deja claro que ve en estas acciones una jugada estratégica para bloquear la competencia. «Es un recurso usado por los lobbistas para presionar a favor de una legislación que podría dañar a la comunidad de código abierto», explicó.
El dilema de la regulación de IA
Ng no niega la necesidad de una regulación de la inteligencia artificial, pero advierte que un mal enfoque podría ser tan dañino como no regular en absoluto. Para el profesor, la prioridad debe ser la transparencia en el desarrollo y uso de la IA, algo que, a su juicio, podría haber evitado los problemas derivados del uso de las redes sociales en la primera década del siglo XXI. Argumenta que esta misma falta de transparencia, si no se corrige, puede generar riesgos en el futuro con la IA, sobre todo en manos de las grandes corporaciones que buscan centralizar el control sobre su desarrollo.
El temor a una «captura regulatoria» por parte de las grandes empresas no es infundado. En múltiples sectores, como la banca o las telecomunicaciones, se ha visto cómo las grandes corporaciones han utilizado la regulación para establecer barreras que les permitan mantener su dominio. Ng se opone firmemente a que esto ocurra en la industria de la IA.
La competencia y el impacto en la innovación
El principal temor de Andrew Ng es que las grandes tecnológicas, a través del lobby, consigan que los gobiernos impongan un régimen de licencias que bloquee la competencia. Esto significaría que empresas como OpenAI, Google o Microsoft, con los recursos para navegar las complejas regulaciones, puedan consolidar su monopolio sobre el desarrollo de la inteligencia artificial. Mientras tanto, iniciativas más pequeñas y proyectos de código abierto, que son esenciales para la diversidad y el dinamismo de la innovación, quedarían rezagados o se verían obligados a abandonar el campo.
El profesor también recordó que la innovación en inteligencia artificial ha prosperado precisamente gracias al enfoque abierto y colaborativo que ha permitido a universidades, pequeñas startups y desarrolladores individuales avanzar en este campo. El establecimiento de normas restrictivas podría terminar por sofocar este ecosistema. De hecho, Ng teme que imponer un control tan estricto sobre quién puede desarrollar IA pueda tener consecuencias devastadoras, no solo para la industria, sino para el progreso en áreas como la medicina, la energía y la educación, donde la inteligencia artificial tiene el potencial de generar cambios profundos.
La importancia de la regulación inteligente
Pese a sus críticas a la situación actual, Ng no aboga por una ausencia total de regulación. De hecho, considera que la regulación puede ser necesaria, sobre todo en áreas donde la IA ya ha demostrado ser peligrosa. Pone como ejemplos los accidentes provocados por coches autónomos y la crisis de 2010 en los mercados financieros, cuando un algoritmo de trading desestabilizó las bolsas mundiales. Sin embargo, para Ng, la clave está en diseñar una regulación que fomente la seguridad sin asfixiar la innovación.
La pregunta de fondo, entonces, no es si se debe regular la inteligencia artificial, sino cómo hacerlo sin caer en las trampas de la «captura regulatoria». Ng insiste en que una regulación mal diseñada podría ser tan peligrosa para el futuro de la IA como los riesgos que pretende mitigar.
El artículo El fundador de Google Brain denuncia el falso alarmismo sobre la extinción por IA aparece primero en Driving ECO.