Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filtra por categorías
Actualidad
Actualidad
Actualidad
Actualidad
Adquisición
Aerolíneas
Alianzas
Alianzas
Alianzas
Alianzas
Aplicaciones
Arte
Audífonos con Tinta
Audiovisual
Canales
Casos de éxito
Ciberseguridad
Cine
Cine y TV
Columna
Columna de opinión
Columna de opinión
Columna de opinión
Conectividad
Cultura
Danza
Economía
Economía
Económicas
Educación
Educación
Emprendimiento
Emprendimiento
Emprendimiento
Emprendimiento
Estilo de Vida
Estilo de Vida
Estilo de Vida
Estilo de Vida
Eventos
Eventos
Eventos
Eventos
Exhibición
Exposición
Exposiciones
Festival
Festivales
Fintech
Gamer
Gastronomía
Gastronomía
Gobierno
Gobierno
Gobierno
Gobierno
Hoteles
Infraestructura
Infraestructura
Innovación
Innovación
Innovación
Inversiones
Literatura
lugares
Lugares
Lugares
Medio Ambiente
Movilidad
Música
Música
Negocios
Planes
Planes
Planes
Planes
Poesía
Predicciones
Productos
Pymes
Reconocimiento
Recursos Humanos
Recursos Humanos
Reseña
RR.HH.
RSE
RSE
RSE
Seguridad
Seguridad
Servicio
Servicios
Servicios
Sociales
Sociales
Sociales
Sociales
Software
Sostenibilidad
Sostenibilidad
Sostenibilidad
Sostenibilidad
Sostenibilidad
Teatro
Tecnología
Telecomunicaciones
Televisión
Tendencias
Tendencias
Tendencias
Turismo
Uncategorized

Crecen las estafas por clonación de voz con Inteligencia Artificial

Síguenos en Google News

Conviértenos en tu fuente de información en Google News.

La Inteligencia Artificial ha revolucionado el mundo, y los ciberdelincuentes han sabido aprovechar todo este potencial para armar ataques de ingeniería social dirigidos, más realistas y sofisticados.

Las técnicas que involucran la clonación de voz para hacerse pasar por familiares, amigos o conocidos están en pleno auge con el objetivo obtener información privada o directamente dinero de sus víctimas. ESET analiza la metodología que utilizan los atacantes en este tipo de engaños, cómo pueden afectar a las personas y de qué manera evitar ser víctima.

Los cibercriminales toman pequeños fragmentos de una grabación real y mediante el uso de la Inteligencia Artificial y los patrones de voz, crean conversaciones y frases para llevar a cabo sus engaños, con consecuencias tan graves como costosas.

Estas muestras las obtienen de grabaciones de voz o de videos que estén publicados en redes sociales como Instagram o TikTok.

Para dimensionar cuál es su impacto, la Comisión Federal de Comercio de los Estados Unidos informó que solo en 2023 ese país perdió 2.700 millones de dólares solo por estafas. En esa línea, Starling Bank (banco británico que opera de manera online) alertó sobre la preponderancia de este tipo de estafas en el Reino Unido. La encuesta realizada a más de 3.000 personas reveló que más de una cuarta parte de los adultos afirma haber sido víctima de una estafa de clonación de voz mediante inteligencia artificial al menos una vez en el año. Además, el 46% de los encuestados mencionó que no sabía que existían tales estafas.

El crecimiento del número de estafas que involucran a la Inteligencia Artificial llevó al FBI a emitir un comunicado para alertar a las personas: “Los atacantes están aprovechando la IA para crear mensajes de voz o video y correos electrónicos muy convincentes para permitir esquemas de fraude contra individuos y empresas por igual. Estas tácticas sofisticadas pueden resultar en pérdidas financieras devastadoras, daño a la reputación y compromiso de datos confidenciales”, remarcaron desde el organismo.

Desde ESET advierten que ante este tipo de estafas que involucran la ingeniería social, el primer consejo es mantenerse bien alerta. Esto quiere decir, prestar especial atención a aquellos mensajes inesperados que llegan con la urgencia de solicitar dinero o credenciales de ciertas cuentas. Y en esa misma línea, devolver la llamada al familiar o amigo en cuestión a un número de teléfono conocido.

Otra de las medidas sugeridas por el equipo de investigación de ESET es tener una “frase segura”, que sea acordada previamente entre familiares y amigos, con el objetivo de comprobar si la persona que está hablando del otro lado es quien realmente dice ser.

También es muy importante implementar la autenticación multifactor siempre que se pueda. Se trata de agregar una capa de seguridad extra, con el objetivo de que los ciberdelincuentes no puedan acceder a nuestras cuentas y sistemas.

“En el caso de las empresas, más allá de combinar soluciones para reducir la cantidad de correos electrónicos, llamadas y mensajes de phishing que llegan a sus colaboradores, es primordial que puedan educar y concientizar a sus equipos de colaboradores para que puedan detectar los engaños y no caer en la trampa.”, comenta Camilo Gutiérrez Amaya, jefe del Laboratorio de investigación de ESET Latinoamérica.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Más tinta y tecnología