¿Nos está tomando la delantera la Inteligencia Artificial en diferentes escenarios como en el laboral? ¿Podrían estas tecnologías dejarnos sin trabajo o, por el contrario, mejorarlo? ¿Es posible que también acaben sustituyendo las relaciones humanas y el tan apreciado concepto del amor, tal y como lo entendíamos hasta ahora? ¿Puede ser ChatGPT el final de Google? ¿Skynet y Matrix tomarán conciencia de sí mismos y acabarán con la especie humana? ¿Qué ocurriría si personas con mala intención sumen las capacidades de distintas inteligencias artificiales para el cibercrimen, o para generar bulos e influir en la opinión pública?
Estas, entre otras muchas preguntas, son cuestiones que se están poniendo sobre la mesa del debate social. Algunas más serias y científicas y otras que servirán para nuevas secuelas de largometrajes hollywoodienses. No obstante, cuando el río suena, agua lleva. Aunque parezca distópico o lejano, ya hemos visto cómo la IA puede hacerse con el control de la domótica de nuestro hogar o cómo un chatbot, como ChatGPT, está siendo utilizado por millones de personas en el mundo que intentan que les sustituya en sus necesidades personales o laborales sin que sus jefes o clientes se den cuenta. Eso sí, esa no parece una estrategia adecuada ni inteligente.
A medida que se generaliza el uso de ChatGPT y otros modelos lingüísticos basados en IA, es importante tener en cuenta los riesgos potenciales que pueden suponer para la sociedad y el mercado laboral. Una de las principales preocupaciones es que estos modelos puedan automatizar determinados puestos de trabajo, provocando pérdidas de empleo y trastornos económicos. Además, preocupa que la tecnología pueda utilizarse con fines malintencionados, como difundir información errónea o suplantar la identidad de personas en línea. “Tenemos que empezar a hablar sobre la utilidad que pueden tener para el cibercrimen organizado y para la formación en malas prácticas de nuevos seguidores”, señala Hervé Lambert, Global Consumer Operations Manager de Panda Security.
¿Qué es ChatGPT?
ChatGPT es una de las nuevas herramientas favoritas de los usuarios en Internet. Esta aplicación ha sido desarrollada por OpenAI y consiste en un potente modelo de lenguaje que ha sido entrenado con una gran cantidad de datos de texto. Su éxito viene de su capacidad para generar respuestas similares a las humanas a preguntas en lenguaje natural, lo que lo convierte en una herramienta popular para una amplia gama de aplicaciones, como chatbots, creación de contenidos y análisis de datos.
¿A qué ciberriesgos nos exponemos al utilizar ChatGPT?
● Mejorar el código de un virus.
Esta plataforma permite que millones de usuarios tengan respuestas automáticas y más rápidas a preguntas que ya de por sí podían buscarse en Google. “Lo que hace es facilitar la gestión del tiempo y eso, cuando se trata de un uso inadecuado, puede causar consecuencias irreversibles e importantes” puntualiza el ciberexperto.
En este caso se puede entrenar al bot para que, por ejemplo, mejore el código de un virus. “Hay que aclarar que ChatGPT no escribe un código de malware aún pidiéndoselo, ya que se han establecidos límites o, mejor dicho, protocolos de seguridad para identificar solicitudes inapropiadas”, señala Lambert. Pero los ciberdelincuentes están intentando saltarse estos protocolos y, “en algunos casos se ya se ha conseguido”, por lo que presumiblemente, sí se podría llegar a mejorar el código de un virus.
● Desinformación generalizada
La capacidad de ChatGPT para generar respuestas similares a las humanas a preguntas de lenguaje natural puede utilizarse para difundir información errónea. Por ejemplo, un ciberdelincuente podría utilizar el modelo para generar noticias falsas o mensajes en las redes sociales diseñados para influir en la opinión pública o perturbar unas elecciones. “Cualquier espacio en la red en el que se intercambian ideas, conocimiento, etc., aumenta el riesgo de que volvamos a oír hablar de bots, filtros burbuja y mentiras que se viralizan”, apostilla el ciberexperto. Además, muestra su preocupación por las manipulaciones de diferentes temas o las alteraciones de las preferencias del público, originadas inicialmente en la esfera virtual, con repercusión directa en las decisiones de votos o elecciones.
● Doxing para dañar a empresas y manipular el mercado.
En línea con el punto anterior, un mal uso de ChatGPT podría servir para llevar a cabo la difusión de noticias falsas sobre una empresa o producto. En dos vertientes diferentes: “Por un lado podría socavar la reputación e imagen digital de una empresa o personalidad pública o, por otro lado, podría utilizarse para afectar a los precios de las acciones y causar pérdidas financieras a los inversores”, comenta Lambert.
● Suplantación de identidad y engaño a menores
Esta herramienta puede transformar la forma en que las personas interactúan con otros o comparten datos. Un ciberdelincuente podría utilizar el modelo para crear un perfil falso en las redes sociales o un chatbot que parezca ser una persona real, y luego utilizarlo para llevar a cabo estafas y robo de credenciales y datos bancarios.
“Lo realmente preocupante también es que uno puede hacerse pasar por otro niño y engañarlo, abusando de su falta de experiencia y confianza”, comenta Hervé Lambert, Global Consumer Operations Manager de Panda Security: “Ese potencial significa un mejor acceso a la información y un mejor control de las comunicaciones y obviamente influye en la percepción de los niños a compartir más”.
● Escribir emails para hacer phishing.
Y no únicamente favorecería el número de ciberataques de phishing, sino que también perfeccionaría el contenido en muchos contextos, países e idiomas diferentes. “Sería mucho más fácil clonar una acción delictiva de éxito en España y lanzarla en 40 idiomas distintos, países distintos con usos y reglas algo diferentes”, explica Lambert.
“Tengamos en cuenta que buena parte de los emails, SMS y WhatsApps de phishing que recibimos son malísimas traducciones, lo que nos facilita mucho su detección. Pero, si los hackers empiezan a usar esta IA para traducir sus mensajes, será mucho más difícil darse cuenta del engaño” añade Hervé Lambert.
● Usar ChatGPT para crear deepfakes
Sería posible que a través de este tipo de herramientas pudiesen desarrollarse bots capaces de copiar la voz, imagen, movimientos gestuales y corporales, la forma de actuar y de hablar de una persona real. “E incluso, la forma de usar las emociones”, apunta Lambert.
● Suplantación de identidad a través de nuevos modelos de lenguaje por voz
Aunque hay muchas más tecnologías, podemos poner el ejemplo de Microsoft, que ha desarrollado su enfoque de modelado de lenguaje para la síntesis de texto a voz. Se llama VALL-E y es una herramienta IA capaz de reproducir tu voz de forma casi idéntica tras solo escucharte hablar durante tres segundos. “Por poner un ejemplo, este tipo de aplicaciones, ya sea la IA de Microsoft y la de chatGPT podrían generar conversaciones casi instantáneas para engañar a alguien en una llamada telefónica o para dejarte mensajes en el buzón de voz, o en un audio de Whatsapp”, señala el ciberexperto.
¿En qué otros aspectos puede afectar el mal uso de estas herramientas de IA a otras esferas?
Nos referimos al rendimiento académico. En este sentido, el ciberexperto es contundente: “Si ya teníamos mucho trabajo con toda la población global en cuanto a la educación en ciberseguridad, ahora el reto se complica todavía más. El uso que hagamos de este tipo de herramientas puede determinar el rumbo académico de miles de escolares, y lo que es más importante, hablamos de la capacidad de superación y aprendizaje de las personas. Puesto que muchos ven Chat GPT como una solución para realizar tareas que consideraban un tedio, sin intentar poner algún esfuerzo de su parte, ¿qué legado cultural estamos dejando entonces a las nuevas generaciones?”, finaliza Hervé Lambert, Global Consumer Operations Manager de Panda Security.
2 comments
Aplicar el desarrollado y que es antihaker: Sistema de seguridad por documentación electrónica para acceso a recursos, lugares y aparatos a partir de un elemento electrónico de seguridad que contiene llave de datos o tarjeta de acceso o Smartphone [1] (los números son las partes del sistema en el esquema de diseño y funcionamiento), cerradura o puerto de acceso [2], unidad central [3], pantalla de visualización de mensajes del sistema (5) y módulo de energía operativa [7]. El sistema determina si un usuario tiene autorización para acceder a un recurso [6]: lugar [6A] o aparato [6B], basándose en la comprobación de unas reglas mínimas y obligatorias que se deben cumplir (requisitos mínimos de seguridad) [3C], utilizando para dicha comprobación la fuente original de los datos (documentación oficial – bases de datos externas al dispositivo) [4], permitiendo el acceso al recurso sólo en el caso de estar en conformidad [3F] los campos obligatorios requeridos.
Se puede enviar la memoria descriptiva, el prototipo desarrollado (hardware)y su infinita aplicación, p ej sector automovilístico, donde identifica quién está detrás del teclado o llave, pendrive, y no arranca el coche sino tiene puntos, permiso de circulación, seguro o ITV en regla.
El software desarrollado tiene aplicaciones infinitas y la seguridad es máxima porque no hay vulnerabilidad ni fallos de seguridad por donde puedan entran los hacker, ya que requiere saber los 5 sistemas simultáneos puestos por personas distintas con lo que tiene seguridad para acceder incluso a internet o deepweb.
Saludos Enrique
Hoy visité el sitio web de chat.openai.com, quise probar la plataforma y no se pudo porque al parecer se colapsó, y solo permite suscribirse a una lista de pago…, en fin. El asunto es que la página quedó abierta por unas cuantas horas, luego, al cerrar la página, mi antivirus me indicó sobre una conexión web bloqueada del dominio gpttuucg.com (conexión saliente en el puerto 443). Me entró la duda, pienso que quizás esta plataforma intenta hacerse con datos del usuario que le visita para luego, quien sabe, si uno pregunta algo propio de su vida, que no es para bada famoso… La imaginación no tiene límites.
Saludos a esta comunidad. Muy buen artículo.