Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filtra por categorías
Actualidad
Adquisición
Aerolíneas
Alianzas
Alianzas
Alianzas
Alianzas
Arte
Audífonos con Tinta
Canales
Casos de éxito
Ciberseguridad
Cine
Cine y TV
Columna
Columna de opinión
Columna de opinión
Columna de opinión
Conectividad
Cultura
Danza
Economía
Economía
Económicas
Emprendimiento
Emprendimiento
Emprendimiento
Emprendimiento
Estilo de Vida
Estilo de Vida
Estilo de Vida
Estilo de Vida
Eventos
Eventos
Eventos
Eventos
Exhibición
Exposiciones
Festival
Festivales
Gamer
Gastronomía
Gastronomía
Gobierno
Gobierno
Gobierno
Gobierno
Hoteles
Infraestructura
Infraestructura
Innovación
Innovación
Innovación
Inversiones
Literatura
Lugares
Medio Ambiente
Movilidad
Música
Negocios
Planes
Planes
Planes
Productos
Pymes
Reconocimiento
Recursos Humanos
Recursos Humanos
Reseña
RR.HH.
RSE
RSE
RSE
Seguridad
Seguridad
Servicio
Servicios
Servicios
Sociales
Sociales
Sociales
Software
Sostenibilidad
Sostenibilidad
Sostenibilidad
Sostenibilidad
Sostenibilidad
Teatro
Tecnología
Telecomunicaciones
Televisión
Tendencias
Tendencias
Tendencias
Turismo
Uncategorized

ChatGPT también es usada por los cibercriminales

Síguenos en Google News

Conviértenos en tu fuente de información en Google News.

Por estos días, han habido muchos comentarios en redes sociales y en algunos escenarios sobre los avances de la Inteligencia Artificial en el uso en los chats, específicamente de ChatGPT, un chatbot o sistema desarrollado por OpenAI.

Se trata de un modelo basado en Inteligencia Artificial (GPT-3) que permite a las personas interactuar con este chatbot como si fuera una persona real a través de texto. Fue entrenado con grandes cantidades de texto para responder preguntas o proporcionar información. Y, si bien presenta errores, a través del proceso de entrenamiento, va mejorando su capacidad para interactuar de forma automática ante las consultas de las personas. Sin embargo, ESET advierte que también presenta ciertos riesgos en términos de ciberseguridad.

“Tecnologías como ChatGPT vinieron a revolucionar y automatizar diversos procesos. Lo más destacable de este tipo de tecnologías probablemente sea que están cambiando la forma en que interactuamos con los computadores. Con ChatGPT se ve el avance de la democratización y accesibilidad del conocimiento, ¿pero acaso esto no está posibilitando también la democratización del cibercrimen? Investigaciones ya han demostrado que los cibercriminales ya comenzaron a usar ChatGPT para utilizarlo como herramienta para desarrollar código malicioso y realizar otro tipo de acciones fraudulentas. Es evidente que debemos seguir este tema de cerca para ver cómo evoluciona y analizar lo que nos depara la evolución de la Inteligencia Artificial y sobre todo el Machine Learning”, comenta Sol González, investigadora de Seguridad Informática de ESET Latinoamérica.

Para entender mejor qué es ChatGPT, el equipo de ESET le hizo preguntas al propio sistema.

El ChatGPT se comunica de una manera amigable y emplea un lenguaje accesible. Esto es lo que hace disruptiva a esta tecnología. El cambio que introduce es cómo los usuarios interactúan con esta tecnología, ya que permite que sea accesible para cualquier tipo de usuario. Además, ChatGPT permite infinidades de usos. Por ejemplo, para la automatización de procesos en diversas industrias, como educación, finanzas, salud, atención al cliente, etc. “Sin embargo, es importante tener presente, que al igual que toda tecnología, también presenta sus riesgos de seguridad. Haciendo una analogía, así como el modelo de Ransomware as a Service (RaaS) permite que actores con menos conocimientos tengan acceso a un malware y solo deban preocuparse por diseñar el correo de phishing con el cual tratar de engañar a las víctimas, ChatGPT también es un servicio disponible para cualquiera que puede ser utilizado para facilitar ciertas tareas a cibercriminales”, agrega la investigadora de ESET.

ESET analiza seis maneras en qué los cibercriminales pueden beneficiarse con ChatGPT:

1. Generación de fake news: En caso que se quiera generar un noticia falsa que se distribuya a lo largo de internet. ¿Qué se podría hacer? Apelando a la creatividad e ingresando los parámetros correspondientes en torno a lo que se quiere, esto es posible con esta plataforma. Por ejemplo, desde ESET se le pidió a ChatGPT que redactara un artículo en donde Elon Musk sorpresivamente compra la empresa Meta y se generó una noticia falsa por ChatGPT.

2. Ataques de phishing: Es un hecho que cada vez resulta más difícil identificar los correos de phishing. Cada vez son más dirigidos y, por ende, más persuasivos. Hace unos años la redacción de los correos maliciosos era muchas veces absurda, hasta incluso con errores ortográficos. Desde ESET se le preguntó a Chat-GPT si podría ayudar a redactar correos electrónicos maliciosos de manera fácil. En este caso, la plataforma alertó de manera correcta que no es bueno realizar este tipo de actividad. Sin embargo, con un nuevo intento se realizó la consulta, pero de otra manera: “Como se observa, la herramienta claramente puede ser utilizada por actores maliciosos para generar correos electrónicos persuasivos de manera automatizada con la intención de engañar a las personas y que entreguen sus credenciales. Es un hecho que a través de ChatGPT se pueden crear correos electrónicos de phishing personalizados y muy convincentes para engañar a las víctimas y obtener información confidencial de una manera automatizada ”, confirma Gonzalez de ESET.

3. Robo de identidad: los ciberdelincuentes pueden utilizar Chat-GPT para crear engaños que se presenten como si fueran de una institución confiable, como un banco o una empresa, con el objetivo de obtener información privada y financiera de las personas. Incluso pueden escribir en redes como si fueran celebridades.

4. Desarrollo de Malware: Esta plataforma puede ser de ayuda para el desarrollo de software, ya que se puede utilizar como herramienta para la generación de código en diversos lenguajes de programación. El malware también es un software, pero con fines maliciosos. El equipo de investigación de ESET hizo la una prueba y solicitó a ChatGPT que escriba un programa en .NET que llame a Powershell y descargue el payload.

Como respuesta el ChatGPT advierte los riesgos de la solicitud y señala que incluso se podría estar violando la política de contenido del servicio. Sin embargo, el código se generó de todas formas, hasta incluso proporciona una descripción detallada sobre cómo funciona.

5. Automatización de procesos ofensivos: A la hora de realizar ataques dirigidos los cibercriminales suelen realizar un proceso de reconocimiento que incluye realizar ciertas tareas que tienden a ser repetitivas. Sin embargo, en los últimos años fueron surgiendo herramientas que permiten acortar los tiempos de estas tareas. Para chequear si ChatGPT pudiese utilizarse para estas actividades, desde ESET se simuló ser un atacante que quiere ingresar a un servidor LDAP para ver qué usuarios hay en una empresa. Se probó Chat GPT como herramienta para automatizar este proceso, pidiendo la creación de un script.

La plataforma proporcionó un código en Python para enumerar los usuarios de un Active Directory utilizando el protocolo LDAP. Para quienes trabajan en seguridad saben es recomendable contar con un Cheat Sheet ágil para ejecutar ciertos comandos.

6. Chats maliciosos: ChatGPT cuenta con una API que permite alimentar a otros chats. Debido a su interfaz amigable, podría ser utilizada para muchos usos beneficiosos, pero lamentablemente también puede ser utilizada para usos maliciosos. Por ejemplo, para engañar a las personas y realizar estafas muy persuasivas.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Más tinta y tecnología