Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filtra por categorías
Actualidad
Adquisición
Aerolíneas
Alianzas
Alianzas
Alianzas
Arte
Audífonos con Tinta
Canales
Casos de éxito
Ciberseguridad
Cine
Cine y TV
Columna
Columna de opinión
Columna de opinión
Columna de opinión
Conectividad
Cultura
Danza
Economía
Economía
Económicas
Emprendimiento
Emprendimiento
Emprendimiento
Emprendimiento
Estilo de Vida
Estilo de Vida
Estilo de Vida
Estilo de Vida
Eventos
Eventos
Eventos
Eventos
Exhibición
Exposiciones
Festival
Festivales
Gamer
Gastronomía
Gastronomía
Gobierno
Gobierno
Gobierno
Gobierno
Hoteles
Infraestructura
Infraestructura
Innovación
Innovación
Innovación
Inversiones
Literatura
Lugares
Medio Ambiente
Movilidad
Música
Negocios
Planes
Planes
Planes
Productos
Pymes
Reconocimiento
Recursos Humanos
Recursos Humanos
RR.HH.
RSE
RSE
RSE
Seguridad
Seguridad
Servicio
Servicios
Servicios
Sociales
Sociales
Sociales
Software
Sostenibilidad
Sostenibilidad
Sostenibilidad
Sostenibilidad
Sostenibilidad
Teatro
Tecnología
Telecomunicaciones
Televisión
Tendencias
Tendencias
Tendencias
Turismo
Uncategorized

Solo 24% de los usuarios puede detectar un video o imagen falsa “deepfake”

Síguenos en Google News

Conviértenos en tu fuente de información en Google News.

La banca en línea en América Latina ha experimentado un fuerte crecimiento en los últimos años, en gran parte impulsado por la pandemia, que llevó a millones de usuarios a comenzar a utilizar los servicios financieros en línea. Sin embargo, a medida que crece el uso de las plataformas digitales bancarias también lo hacen las actividades delictivas que buscan eludir los sistemas de seguridad y cometer fraudes en línea.

De acuerdo con datos de la consultora McKinsey, que recientemente identificó a la región como el ‟líder de crecimiento global en el sector bancario”, se estima que actualmente el 20% de los ingresos en línea de la región se pierde debido al fraude.

Los deepfakes son archivos de vídeo, imagen o voz, manipulados mediante un software de inteligencia artificial para representar a un individuo diciendo o haciendo algo que no dijo o hizo, de modo que parezcan originales, auténticos y reales, y se han convertido en uno de los recientes métodos de ataque empleado por los delincuentes para obtener acceso no autorizado a las aplicaciones bancarias, aprovechándose de la verificación facial del usuario.

De acuerdo con un estudio realizado por iProov sobre la creciente amenaza de los medios sintéticos (formato de contenido digital creado o modificado mediante algoritmos, especialmente a través de inteligencia artificial) se identificaron los siguientes hallazgos:

1. Los ataques de inyección digital son difíciles de detectar y altamente escalables, lo que los hace atractivos para los estafadores. Además, están siendo compartidos y probados desde varias partes del mundo, ya sea por la propia organización criminal o a través de una economía de delincuencia como servicio.

2. Todas las tecnologías de prueba de vida no son iguales. De hecho, muchas de estas soluciones no ofrecen defensa contra los ataques deepfake inyectados digitalmente. Una biometría única que asegure tanto la prueba de vida como que el usuario es una persona real, verificada en tiempo real, es esencial en la estrategia de defensa de los bancos contra las falsificaciones profundas.

3. Los humanos son ineficaces para detectar falsificaciones profundas. Aunque el 57% de los usuarios en el mundo cree que puede detectar con éxito un deepfake, la investigación muestra que solo el 24% lo hace de manera efectiva.

Para combatir este aumento de transacciones fraudulentas, muchos bancos latinoamericanos están adoptando la verificación biométrica remota como un método seguro para facilitar la práctica de conozca a su cliente (KYC), lo que les permitirá identificar a los clientes desconocidos en el proceso de incorporación y autenticar las transacciones.

“La mayoría de la tecnología biométrica facial incorpora algún tipo de prueba de vida para verificar y autenticar a los clientes. Esta prueba utiliza tecnología biométrica para determinar si el individuo que se presenta es un ser humano real y no un artefacto presentado. Por lo tanto, esta tecnología puede detectar un deepfake si se reprodujo en un dispositivo y se presentó a la cámara”, aseguró Daniel Molina, vicepresidente de iProov para América Latina.

La tecnología de iProov comprueba que un usuario en línea es la persona correcta, una persona real, y que se está autenticando en este momento. Con la herramienta Genuine Presence Assurance las organizaciones de todo el mundo pueden autenticar la identidad del cliente, ofreciendo máxima privacidad para el usuario.

De hecho, organizaciones de todo el mundo utilizan iProov para reducir el riesgo de fraude de identidad, incluidos UBS, ING, Rabobank y Knab, en el sector financiero, y el Departamento de Seguridad Nacional de EE. UU., el Ministerio del Interior del Reino Unido, el Servicio Nacional de Salud y GovTech en Singapur, en el sector gubernamental.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Más tinta y tecnología