Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filtra por categorías
Actualidad
Adquisición
Aerolíneas
Alianzas
Alianzas
Alianzas
Alianzas
Arte
Audífonos con Tinta
Canales
Casos de éxito
Ciberseguridad
Cine
Cine y TV
Columna
Columna de opinión
Columna de opinión
Columna de opinión
Conectividad
Cultura
Danza
Economía
Economía
Económicas
Emprendimiento
Emprendimiento
Emprendimiento
Emprendimiento
Estilo de Vida
Estilo de Vida
Estilo de Vida
Estilo de Vida
Eventos
Eventos
Eventos
Eventos
Exhibición
Exposiciones
Festival
Festivales
Gamer
Gastronomía
Gastronomía
Gobierno
Gobierno
Gobierno
Gobierno
Hoteles
Infraestructura
Infraestructura
Innovación
Innovación
Innovación
Inversiones
Literatura
Lugares
Medio Ambiente
Movilidad
Música
Negocios
Planes
Planes
Planes
Productos
Pymes
Reconocimiento
Recursos Humanos
Recursos Humanos
Reseña
RR.HH.
RSE
RSE
RSE
Seguridad
Seguridad
Servicio
Servicios
Servicios
Sociales
Sociales
Sociales
Software
Sostenibilidad
Sostenibilidad
Sostenibilidad
Sostenibilidad
Sostenibilidad
Teatro
Tecnología
Telecomunicaciones
Televisión
Tendencias
Tendencias
Tendencias
Turismo
Uncategorized

Cómo protegerse mientras usa ChatGPT y otras herramientas IA

Síguenos en Google News

Conviértenos en tu fuente de información en Google News.

ChatGPT se ha convertido en el tema de conversación por la innovación que supone gracias a su facilidad de uso. Es un modelo de lenguaje de inteligencia artificial desarrollado por OpenAI para procesar lenguaje natural y responder a preguntas y conversaciones en línea. Si bien esta es una herramienta valiosa para muchas personas y organizaciones, también presenta riesgos potenciales en términos de seguridad cibernética.

Aunque ChatGPT no almacena información de los usuarios ni tiene acceso a información personal, a menos de que se le proporcione, los ciberdelincuentes pueden utilizar técnicas de ingeniería social y otras tácticas para engañar a los usuarios y obtener información confidencial. “Como modelo de lenguaje basado en la inteligencia artificial, ChatGPT es una herramienta atractiva para los ciberdelincuentes, ya que puede ser utilizada para acceder a información personal y confidencial. Esto puede incluir información de inicio de sesión, detalles de la cuenta, direcciones de correo electrónico y otra información sensible”, comenta Adib Manssur, Sales Engineer Manager de Hillstone Networks para la región NOLA.

De acuerdo con el ejecutivo: “Todas las herramientas tecnológicas, por buenas que sean, pueden ser usadas para fines negativos. Con respecto a ChatGPT, los ciberdelincuentes pueden aprovechar la herramienta para crear mensajes de phishing aún más creíbles, para robar los datos sensibles de las personas”.

Para reducir los riesgos de seguridad cibernética asociados con ChatGPT es importante seguir algunas prácticas de seguridad recomendadas, como no proporcionar información personal confidencial a ChatGPT, no hacer clic en enlaces sospechosos que se envíen a través de la plataforma y mantener actualizado el software de seguridad en su dispositivo.

Según analistas, ChatGPT también puede ser utilizado para crear malware. Sin embargo, en este punto, Adib Mansur explica que “No solo con ChatGPT se puede crear malware, sino es algo que existe en la dark web (red profundad) donde se venden todo tipo de herramientas para que los cibercriminales realicen los ataques. Ante ello, no se puede pensar que por usar ChatGPT se va a incrementar este tipo de mercado. El malware y ransomware como servicio ya existen y en un flagelo que crece día tras día”.

En este sentido, Adib Manssur va más allá. “Si bien ChatGPT puede ser usado de manera negativa, no debemos estigmatizar esta herramienta ni las que han surgido como DALL-E 2, Microsoft Bing, Chatsonic y más. Lo positivo es que cada vez hay desarrollos de IA al alcance de los usuarios. Esta es solo una aplicación práctica, pero la IA hace aportes más profundos”.

Justamente en el uso de la IA en ciberseguridad, las técnicas de IA son muy prometedoras en las áreas de análisis, detección y respuesta a las amenazas. Su capacidad para aplicar técnicas avanzadas de análisis y basadas en la lógica puede aliviar en gran medida la carga de los administradores de seguridad y permitirles tomar medidas razonables y eficaces en respuesta a los ataques y amenazas.

El análisis del comportamiento de usuarios y entidades (UEBA), por ejemplo, puede ayudar a detectar a personas internas malintencionadas, así como a atacantes externos hostiles que se infiltran en la red y sus activos.

El análisis del tráfico de la red es otra área en la que la IA puede brillar; el volumen del tráfico de la red suele ser masivo y llevar a cabo un análisis exhaustivo y continuo que sólo con esfuerzos humanos sería no solo difícil, sino imposible.

Las técnicas avanzadas de IA y ML, como el análisis de big data, pueden ayudar a detectar el malware y las amenazas avanzadas con un gran grado de precisión, incluidas las mutaciones y variantes.

De esta manera, IA y la variedad de aplicaciones demuestran que esta tecnología está cambiando muchos procesos y será un aliado para los usuarios. “Lo importante es ser consciente de que siempre debe haber un componente de seguridad para protegernos”, concluye el ejecutivo.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Más tinta y tecnología