Site icon Panda Security Mediacenter

Las consecuencias de que las IA generativas sí permitan vulnerar los derechos de privacidad

las-consecuencias-de-que-las-ia-generativas-si-permitan-vulnerar-los-derechos-de-privacidad

Google ha dado un golpe en la mesa en la carrera por dominar la Inteligencia Artificial en el plano comercial. Su controvertido giro en sus principios para la IA ha provocado diferentes reacciones, y ha despertado de nuevo el debate de la necesidad de unas medidas de prevención en el uso de esta tecnología

El gigante de Mountain View ha ajustado su enfoque sobre los ámbitos de aplicación de su IA y ha eliminado de sus principios para la Inteligencia Artificial la categoría ‘Aplicaciones de la IA que no vamos a abordar’. Esto significa que ya no consideran una barrera que la IA pueda ser utilizada para usos armamentísticos u otras finalidades que puedan ocasionar daños a personas, ni para recopilar y usar información para vigilancia y espionaje. 

Hervé Lambert, Global Consumer Operations Manager de Panda Security, advierte de que “este cambio en la política de los grandes desarrolladores de IA podría derivar en consecuencias desastrosas como la manipulación masiva, desde campañas de desinformación hasta deepfakes altamente sofisticados que podrían influir en elecciones, mercados financieros o conflictos geopolíticos; y ciberataques avanzados gracias a herramientas de IA que podrían automatizar y potenciar ataques de phishing, ransomware o explotación de vulnerabilidades a una escala sin precedentes”. No sólo eso. Una IA sin control ético “podría ser capaz de recopilar y analizar datos sin consentimiento previo, erosionando el derecho fundamental de la privacidad; y la toma de decisiones sin supervisión humana, que causaría daños irreparables en sistemas críticos como infraestructuras energéticas, sanitarias o militares”, apunta Lambert.

DeepSeek y el peligro del modelo Open Source: ¿una IA sin control?

Esta actualización de los principios de Google sobre el uso de la IA llega sólo unos días después del lanzamiento de DeepSeek, la IA china con su modelo de código abierto, que ha hecho saltar la alarma en gobiernos como el australiano, que ya ha prohibido su uso, o el estadounidense, que plantea un proyecto de Ley en el Senado para prohibir la cooperación entre Estados Unidos y China en el desarrollo de la IA y penalizar a cualquier ciudadano estadounidense que descargue o utilice DeepSeek, pero que no pone en el centro algo que Lambert considera aún más necesario abordar, “el modelo open source, que plantea la posible falta de control sobre su uso ya que en manos equivocadas podría ser utilizado de forma maliciosa”.

El Global Consumer Operations Manager de Panda Security considera que este tipo de modelo plantea varios riesgos: “Podría ser usado por ciberdelincuentes, que tendrían la posibilidad de adaptar el código para ataques avanzados, desde la automatización de fraudes hasta la creación de malware indetectable; podría ser explotado por regímenes autoritarios para vigilancia masiva, represión o guerra cibernética; y supondría la pérdida de control, ya que al ser Open Source, cualquier actor con conocimientos avanzados en IA podría modificar las barreras de seguridad eliminando cualquier salvaguardia contra el abuso”

Mercenarios vendiendo IA maliciosa al mejor postor

Este cambio de políticas en el desarrollo de la IA y el uso del modelo de código abierto también abrirían la puerta a las grandes tecnológicas para que puedan actuar como mercenarios digitales ofreciendo su tecnología y know how a gobiernos o entidades con intereses específicos. “Podríamos asistir a la militarización de la IA, y ver desarrollos que podrían alimentar conflictos armados, ya sea mediante drones autónomos, hackeos de infraestructuras críticas o la automatización de ciberataques militares”, señala Lambert. Pero, además, “también podríamos asistir a la privatización de la vigilancia y contemplar cómo empresas con tecnología avanzada podrían vender servicios de espionaje masivo a gobiernos o corporaciones sin escrúpulos; y a la manipulación geopolítica para influir en decisiones estratégicas, desde sanciones económicas hasta la desestabilización política de regiones enteras”.

Este potencial horizonte que se divisa refuerza la necesidad de regulaciones internacionales estrictas que eviten que la IA sea utilizada como arma en conflictos o herramienta de represión. Porque, “sin una regulación también estaríamos expuestos al espionaje por cualquier institución”, avisa el directivo de Panda Security, quien cree que la falta de barreras éticas nos harían más vulnerables que nunca a la vigilancia con técnicas como “un monitoreo sin precedentes por parte de gobiernos, empresas e incluso particulares de nuestros datos en redes sociales, correos electrónicos o comunicaciones en tiempo real; y la desaparición del anonimato, ya que los algoritmos de reconocimiento facial y rastreo podrían identificar a cualquier persona en cualquier parte del mundo”

Regular el uso de las IAs Open Source

Para evitar estas consecuencias, tanto los gobiernos como las empresas deberían ser conscientes de la urgencia de actuar cuanto antes. En el caso de los gobiernos, la regulación no se puede hacer esperar, porque sólo con medidas claras, “como la Ley de IA en la UE, se pueden establecer límites en el desarrollo y uso de la IA”, señala Lambert, quien también considera necesaria una supervisión de las IAs Open Source, “para asegurar que cualquier modelo de IA liberado al público tenga restricciones de seguridad y control de acceso”, y el fomento de una IA ética. Amén de la imposición de sanciones severas, “para quienes utilicen la IA con fines maliciosos”.  

En el ámbito empresarial también se deberían establecer códigos éticos, “que prohíban la venta o colaboración con actores que puedan utilizar la IA con fines ilegales o inmorales”, señala Lambert, “la implementación de auditorías externas para garantizar que sus modelos no sean explotables y la inversión en ciberseguridad, para proteger sus propios datos”. Porque, recordemos que las compañías tampoco serían ajenas al posible espionaje industrial. Este último aspecto es un riesgo real que “debe ser regulado con leyes internacionales, asegurando que las empresas tengan protocolos de seguridad adecuados”, sentencia el directivo de Panda Security. 

Exit mobile version