Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filtra por categorías
Actualidad
Actualidad
Actualidad
Actualidad
Adquisición
Aerolíneas
Alianzas
Alianzas
Alianzas
Alianzas
Aplicaciones
Arte
Audífonos con Tinta
Audiovisual
Canales
Casos de éxito
Ciberseguridad
Cine
Cine y TV
Columna
Columna de opinión
Columna de opinión
Columna de opinión
Conectividad
Cultura
Danza
Economía
Economía
Económicas
Educación
Educación
Emprendimiento
Emprendimiento
Emprendimiento
Emprendimiento
Estilo de Vida
Estilo de Vida
Estilo de Vida
Estilo de Vida
Eventos
Eventos
Eventos
Eventos
Exhibición
Exposición
Exposiciones
Festival
Festivales
Gamer
Gastronomía
Gastronomía
Gobierno
Gobierno
Gobierno
Gobierno
Hoteles
Infraestructura
Infraestructura
Innovación
Innovación
Innovación
Inversiones
Literatura
lugares
Lugares
Lugares
Medio Ambiente
Movilidad
Música
Negocios
Planes
Planes
Planes
Planes
Poesía
Predicciones
Productos
Pymes
Reconocimiento
Recursos Humanos
Recursos Humanos
Reseña
RR.HH.
RSE
RSE
RSE
Seguridad
Seguridad
Servicio
Servicios
Servicios
Sociales
Sociales
Sociales
Sociales
Software
Sostenibilidad
Sostenibilidad
Sostenibilidad
Sostenibilidad
Sostenibilidad
Teatro
Tecnología
Telecomunicaciones
Televisión
Tendencias
Tendencias
Tendencias
Turismo
Uncategorized

Riesgos de seguridad en la IA Agente

Síguenos en Google News

Conviértenos en tu fuente de información en Google News.

La IA Generativa está transformando el panorama digital global, aunque su adopción apresurada pone en riesgo datos confidenciales de proveedores y empresas. Así lo advierte Trend Micro en su estudio titulado “El camino hacia la IA Agente: cimientos expuestos”.

En este análisis, se revela que la generación aumentada por recuperación (RAG), una tecnología que permite a las empresas crear soluciones de IA personalizadas, presenta importantes riesgos de seguridad. A pesar de los beneficios de la RAG, las empresas deben ser conscientes de estos desafíos para proteger sus datos y operaciones.

“Las organizaciones no pueden permitirse pasar por alto los principios de seguridad básicos en la implementación de sistemas generativos. El acceso sin restricciones a componentes críticos como almacenes vectoriales o plataformas de alojamiento de modelos representa una vulnerabilidad directa para la propiedad intelectual y los datos confidenciales”, afirmó Ignacio Triana, director de estrategia de ciberseguridad para MCA en Trend Micro. Según el directivo, herramientas como Zero Trust Secure Access son claves para mitigar riesgos y garantizar una implementación segura de la IA generativa.

¿Cómo funciona RAG?

La generación aumentada por recuperación combina dos elementos clave: un almacén vectorial, que organiza los datos y facilita su búsqueda, y un modelo de lenguaje que utiliza esa información para responder preguntas o generar contenido. Aunque esta tecnología es eficiente y económica, el informe identificó más de 80 servidores de RAG expuestos a internet sin medidas básicas de protección, como contraseñas o cifrado. Estos servidores, ubicados principalmente en Estados Unidos, China, Alemania y Francia, representan una ventana abierta para posibles ataques.

Uno de los hallazgos más preocupantes fue la falta de seguridad en herramientas ampliamente utilizadas, como llama.cpp y Ollama, que alojan modelos de lenguaje. En muchos casos, los sistemas permitían acceder, modificar o borrar datos almacenados, dejando vulnerables tanto la información empresarial como la operatividad de los sistemas.

¿Por qué se dan estas fallas de seguridad?

El informe también destacó problemas en los almacenes vectoriales, como ChromaDB y Weaviate, fundamentales para el funcionamiento de RAG. Estos sistemas almacenan información clave para las decisiones automáticas, pero su exposición sin protección adecuada podría facilitar el robo o la manipulación de datos confidenciales.

La prisa por adoptar estas tecnologías, descrita en el informe como un enfoque de “moverse rápido y romper cosas”, ha llevado a muchos desarrolladores a priorizar la innovación sobre la seguridad. Esto no solo pone en riesgo los sistemas actuales, sino que también plantea desafíos de cara al futuro de la inteligencia artificial, donde los sistemas de IA Agente prometen ser aún más complejos e integrados.

Para hacer frente a las vulnerabilidades expuestas en el estudio, los expertos de Trend Micro recomiendan la implementación de medidas de seguridad robustas. Entre ellas destacan la autenticación obligatoria en todos los accesos, el cifrado de las comunicaciones y la adopción de un modelo de seguridad de confianza cero (Zero Trust). Estas medidas son fundamentales para proteger la infraestructura tecnológica y los datos sensibles que sustentan los avances en inteligencia artificial.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Más tinta y tecnología