Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filtra por categorías
Actualidad
Adquisición
Aerolíneas
Alianzas
Alianzas
Alianzas
Alianzas
Arte
Audífonos con Tinta
Canales
Casos de éxito
Ciberseguridad
Cine
Cine y TV
Columna
Columna de opinión
Columna de opinión
Columna de opinión
Conectividad
Cultura
Danza
Economía
Economía
Económicas
Emprendimiento
Emprendimiento
Emprendimiento
Emprendimiento
Estilo de Vida
Estilo de Vida
Estilo de Vida
Estilo de Vida
Eventos
Eventos
Eventos
Eventos
Exhibición
Exposiciones
Festival
Festivales
Gamer
Gastronomía
Gastronomía
Gobierno
Gobierno
Gobierno
Gobierno
Hoteles
Infraestructura
Infraestructura
Innovación
Innovación
Innovación
Inversiones
Literatura
lugares
Lugares
Medio Ambiente
Movilidad
Música
Negocios
Planes
Planes
Planes
Productos
Pymes
Reconocimiento
Recursos Humanos
Recursos Humanos
Reseña
RR.HH.
RSE
RSE
RSE
Seguridad
Seguridad
Servicio
Servicios
Servicios
Sociales
Sociales
Sociales
Software
Sostenibilidad
Sostenibilidad
Sostenibilidad
Sostenibilidad
Sostenibilidad
Teatro
Tecnología
Telecomunicaciones
Televisión
Tendencias
Tendencias
Tendencias
Turismo
Uncategorized

Conozca cómo los cibercriminales hacen la clonación de voz para estafas

Síguenos en Google News

Conviértenos en tu fuente de información en Google News.

Los delincuentes emplean tecnologías avanzadas, como la clonación de voz y ChatGPT, para imitar la voz y el estilo de comunicación para lograr su estafa.

Las nuevas tecnologías, como la inteligencia artificial (AI) y el aprendizaje automático (ML), generalmente se desarrollan para impulsar la productividad, aumentar la eficiencia y hacernos la vida más fácil. Desafortunadamente, los ciberdelincuentes también han encontrado formas de explotarlos para lograr ataques y estafas.

Una de estas estafas implica el uso de archivos de voz falsos generados por IA, también conocidos como audio falso, que se pueden generar utilizando cantidades muy pequeñas de información biométrica recopilada de contenido personal publicado en fuentes públicas como: TikTok, Facebook, Instagram, y otras plataformas, como los portales gubernamentales.

Herramientas como VoiceLab pueden procesar la biometría de voz de una persona, lo que da como resultado una voz falsa que sonaría exactamente como esa persona específica.

Los elementos de un ataque de secuestro virtual

El secuestro virtual, en esencia, es una campaña de engaño que utiliza información errónea con el fin de engañar a las víctimas para que paguen un rescate. Las víctimas no solo pierden dinero con este esquema, sino que también sufren una gran angustia emocional. Desafortunadamente, los secuestradores virtuales pueden lanzar innumerables ataques y someter a sus víctimas a extremos y solo necesitan tener éxito con poca frecuencia para ganar mucho dinero.

De acuerdo con análisis de TrendMicro, algunos de los elementos típicos de un ataque de secuestro virtual son los siguientes:

  1. Identificación de una posible víctima. Se trata de alguien que es capaz de pagar un rescate.
  2. Identificación de una potencial víctima virtual de secuestro (kidnapee). En el mismo secuestro virtual de la vida real, suplantando la voz de un familiar o alguien cercano a la víctima.
  3. Creación de una historia. Cuanto más emocionalmente manipuladora sea la historia, más deteriorado estará el juicio y el pensamiento crítico de la víctima. Es muy probable que una persona asustada se comporte con más inmediatez y menos previsión.
  4. Recolección de datos biométricos de voz de las publicaciones en las redes sociales de la víctima virtual del secuestro. Los actores maliciosos también pueden extraer la voz de un actor de cine de una escena de película de secuestro aterrador y usar tecnología de falsificación profunda para hacer un audio que suene como si el sujeto hubiera sido secuestrado y estuviera diciendo palabras de una película.
  5. Identificación de elementos temporales y logísticos. Según las actualizaciones de las redes sociales de la víctima del secuestro virtual, los actores malintencionados lanzarán la estafa cuando el sujeto esté físicamente lejos de la víctima del rescate durante un período lo suficientemente largo. Esto puede impedir que la víctima del rescate verifique rápidamente si el niño está a salvo, lo que permite que el ataque y el pago del rescate se realicen con éxito.
  6. Haciendo la llamada. Los atacantes pueden usar software gratuito de modulación de voz para hacer que su voz sea más aterradora o amenazante. Durante la llamada, los atacantes ejecutarán simultáneamente el audio deepfake del supuesto secuestrado para otorgar credibilidad a su solicitud de pago de rescate.
  7. Iniciar actividades posteriores a la llamada. Estos incluyen, entre otros, el lavado de dinero del pago del rescate, la eliminación de todos los archivos relevantes y el desecho del teléfono desechable utilizado.

Al igual que con cualquier esquema de extorsión, cuando las víctimas pagan el rescate, inadvertidamente alientan a los actores malintencionados a continuar lanzando ataques contra otras víctimas. Además, cuando pagan el rescate, su información se agrega a una lista de víctimas rentables, que luego se venden a otros atacantes. Desafortunadamente, esto lleva a que más víctimas sufran otros ataques cibernéticos.

En resumen, la creciente incidencia de ataques de secuestro virtual está directamente relacionada con el incremento de la recopilación de telemetría. Esta información emergente se convierte en un recurso valioso para impulsar mejoras significativas en las estrategias de análisis de seguridad.

A medida que estos avances se integran en sistemas de seguridad equipados con reconocimiento de identidad, se hace evidente que las técnicas antifraude basadas en dicho reconocimiento se tornarán indispensables en la protección contra amenazas futuras.

La evolución de los ataques y las contramedidas refuerza la necesidad de abordar con urgencia el desarrollo de soluciones de seguridad más sofisticadas y eficaces para la protección de la identidad y los datos confidenciales de los usuarios.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Más tinta y tecnología