Google ha dado un golpe en la mesa en la carrera por dominar la Inteligencia Artificial en el plano comercial. Su controvertido giro en sus principios para la IA ha provocado diferentes reacciones. Y ha despertado de nuevo el debate sobre la necesidad de medidas de prevención en el uso de esta tecnología.
El gigante de Mountain View ha ajustado su enfoque sobre los ámbitos de aplicación de su IA. Ha eliminado de sus principios la categoría “Aplicaciones de la IA que no vamos a abordar”. Esto significa que ya no consideran una barrera que la IA pueda ser utilizada para fines armamentísticos o para recopilar y usar información con propósitos de vigilancia y espionaje.
Hervé Lambert, Global Consumer Operations Manager de Panda Security, advierte de que “este cambio en la política de los grandes desarrolladores de IA podría derivar en consecuencias desastrosas”. Como la manipulación masiva mediante campañas de desinformación y deepfakes altamente sofisticados que podrían influir en elecciones, mercados financieros o conflictos geopolíticos.
También subraya el riesgo de ciberataques avanzados. La IA se utilizaría como herramienta que podría automatizar y potenciar ataques de phishing, ransomware o explotación de vulnerabilidades a una escala sin precedentes. No solo eso. Una IA sin control ético “podría ser capaz de recopilar y analizar datos sin consentimiento previo, erosionando el derecho fundamental de la privacidad”. Además, la toma de decisiones sin supervisión humana podría ocasionar daños irreparables en infraestructuras energéticas, sanitarias o militares.
El peligro de una IA Open Source sin regulación
Esta actualización de los principios de Google sobre el uso de la IA llega justo después del lanzamiento de DeepSeek, la IA china con su modelo de código abierto. Esto ha hecho saltar la alarma en gobiernos como el australiano, que ya ha prohibido su uso, o el estadounidense, que plantea un proyecto de ley en el Senado para prohibir la cooperación entre Estados Unidos y China en el desarrollo de la IA. Sin embargo, el foco del debate debería estar en el modelo Open Source en sí, ya que su falta de control podría permitir que cualquier actor con conocimientos avanzados lo utilizara con fines maliciosos.
El Global Consumer Operations Manager de Panda Security considera que este tipo de modelo plantea varios riesgos: “Podría ser usado por ciberdelincuentes, que tendrían la posibilidad de adaptar el código para ataques avanzados, desde la automatización de fraudes hasta la creación de malware indetectable. También podría ser explotado por regímenes autoritarios para vigilancia masiva como en 1984 de George Orwell, represión o guerra cibernética. Además, supondría la pérdida de control, ya que al ser Open Source, cualquier actor con conocimientos avanzados en IA podría modificar las barreras de seguridad eliminando cualquier salvaguarda contra el abuso”.
Pero la regulación no puede ser un esfuerzo aislado de cada país. La IA es, por definición, una tecnología global, y su desarrollo sin límites éticos no entiende de fronteras. De ahí la urgencia de una colaboración internacional efectiva. “Es imprescindible que los gobiernos trabajen juntos para establecer estándares globales sobre el uso ético de la IA y otras tecnologías avanzadas”, subraya Lambert. Compartir experiencias, intercambiar mejores prácticas y desarrollar un marco común de supervisión podría ser clave para evitar que la IA se convierta en un arma de manipulación y vigilancia masiva.
Mercenarios vendiendo IA maliciosa al mejor postor
Este cambio de políticas en el desarrollo de la IA y el uso del modelo de código abierto también abrirían la puerta a las grandes tecnológicas para que actúen como mercenarios digitales, ofreciendo su tecnología y conocimientos a gobiernos o entidades con intereses específicos. “Podríamos asistir a la militarización de la IA, y ver desarrollos que podrían alimentar conflictos armados”, señala Lambert. Esto incluye drones autónomos, hackeos de infraestructuras críticas o la automatización de ciberataques militares.
Pero no solo se trata del uso militar. También se podría privatizar la vigilancia, permitiendo que empresas tecnológicas vendan servicios de espionaje masivo a gobiernos o corporaciones sin escrúpulos. Esto generaría un escenario de manipulación geopolítica, en el que la IA se utilizaría para influir en decisiones estratégicas, sanciones económicas o la desestabilización política de regiones enteras.
Las empresas, por su parte, también tienen una responsabilidad fundamental en la protección de los datos de los usuarios. “Deben implementar medidas robustas para garantizar que la información de sus clientes no sea accesible a actores malintencionados”, advierte Lambert. Esto implica no solo mejorar sus protocolos de seguridad, sino también ser transparentes en el almacenamiento y uso de datos. La recolección indiscriminada de información sin consentimiento, bajo el pretexto de entrenar algoritmos, podría llevarnos a una sociedad donde la vigilancia masiva sea la norma y la privacidad, un concepto del pasado.
Regular el uso de las IAs Open Source
Este potencial horizonte refuerza la necesidad de regulaciones internacionales estrictas que eviten que la IA sea utilizada como arma en conflictos o como herramienta de represión. Porque, “sin una regulación también estaríamos expuestos al espionaje por cualquier institución”, avisa el directivo de Panda Security. La falta de barreras éticas nos haría más vulnerables que nunca a la vigilancia masiva. Con técnicas como la monitorización sin precedentes de nuestras redes sociales, correos electrónicos o comunicaciones en tiempo real.
La desaparición del anonimato sería otro peligro evidente, ya que los algoritmos de reconocimiento facial y rastreo podrían identificar a cualquier persona en cualquier parte del mundo.
Supervisión y control: claves para un uso responsable de la IA
Para evitar estas consecuencias, tanto los gobiernos como las empresas deberían actuar con urgencia. La regulación no se puede hacer esperar. Porque solo con medidas claras, como la Ley de IA en la UE, se pueden establecer límites en el desarrollo y uso de la IA. Señala Lambert. También considera necesaria una supervisión de las IAs Open Source. Para garantizar que cualquier modelo de IA liberado al público tenga restricciones de seguridad y control de acceso. Además, insiste en la necesidad de fomentar una IA ética y de imponer sanciones severas a quienes utilicen la IA con fines maliciosos.
En el ámbito empresarial también se deberían establecer códigos éticos, “que prohíban la venta o colaboración con actores que puedan utilizar la IA con fines ilegales o inmorales”, señala Lambert.
“Es fundamental implementar auditorías externas para garantizar que sus modelos no sean explotables y aumentar la inversión en ciberseguridad para proteger sus propios datos”. Porque las compañías tampoco están exentas de sufrir espionaje industrial, un riesgo real que debe ser regulado con leyes internacionales.
Si no se toman medidas urgentes, podríamos estar ante una era donde la IA no solo nos vigile, sino que nos haga completamente vulnerables en todos los aspectos de nuestra vida.