Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filtra por categorías
Actualidad
Adquisición
Aerolíneas
Alianzas
Alianzas
Alianzas
Alianzas
Arte
Audífonos con Tinta
Canales
Casos de éxito
Ciberseguridad
Cine
Cine y TV
Columna
Columna de opinión
Columna de opinión
Columna de opinión
Conectividad
Cultura
Danza
Economía
Economía
Económicas
Emprendimiento
Emprendimiento
Emprendimiento
Emprendimiento
Estilo de Vida
Estilo de Vida
Estilo de Vida
Estilo de Vida
Eventos
Eventos
Eventos
Eventos
Exhibición
Exposiciones
Festival
Festivales
Gamer
Gastronomía
Gastronomía
Gobierno
Gobierno
Gobierno
Gobierno
Hoteles
Infraestructura
Infraestructura
Innovación
Innovación
Innovación
Inversiones
Literatura
Lugares
Medio Ambiente
Movilidad
Música
Negocios
Planes
Planes
Planes
Productos
Pymes
Reconocimiento
Recursos Humanos
Recursos Humanos
Reseña
RR.HH.
RSE
RSE
RSE
Seguridad
Seguridad
Servicio
Servicios
Servicios
Sociales
Sociales
Sociales
Software
Sostenibilidad
Sostenibilidad
Sostenibilidad
Sostenibilidad
Sostenibilidad
Teatro
Tecnología
Telecomunicaciones
Televisión
Tendencias
Tendencias
Tendencias
Turismo
Uncategorized

Riesgos y medidas de ChatGPT

Síguenos en Google News

Conviértenos en tu fuente de información en Google News.

Desde su lanzamiento a fines de 2022, la herramienta de generación de texto impulsada por IA conocida como ChatGPT ha experimentado tasas de adopción rápidas, tanto por parte de organizaciones como de usuarios individuales. Sin embargo, su última función, conocida como Enlaces Compartidos, conlleva un riesgo potencial con relación a la divulgación “no intencional” de información confidencial.

Esta nueva función, que OpenAI presentó el 24 de mayo de 2023, le permite a los usuarios compartir sus conversaciones con otros a través de la generación de una URL única para tener una conversación en particular.

La función es especialmente útil cuando se comparten diálogos extensos o indicaciones útiles, y ofrece una alternativa más eficiente para distribuir capturas de pantalla.

Divulgación pública a través de enlaces compartidos

Esta característica ha encontrado un amplio uso en las plataformas de redes sociales, donde los usuarios comparten conversaciones interesantes con ChatGPT. Desde Trend Micro, se visualizaron diferentes casos de divulgación no intencional en donde se deja entre ver información delicada como datos personales, un ejemplo, son aquellas personas que usan esta herramienta para revisar o crear su currículum.

Si bien este podría ser un uso efectivo de ChatGPT, compartir estas interacciones públicamente plantea ciertas preocupaciones. Para las personas, el alcance de la información compartida puede ser una cuestión de discreción personal. Sin embargo, ¿qué sucede si un empleado comparte información relacionada con el trabajo sin darse cuenta?, en este escenario la responsabilidad de la persona va más allá y pone en duda la responsabilidad de toda la organización.

Hasta el momento, esta práctica función carece de un mecanismo de control de acceso, por lo que cualquier persona que obtenga la URL compartida puede acceder a su contenido, incluso aquellos que se encuentran fuera de la audiencia prevista.

En consecuencia, OpenAI aconseja no compartir información confidencial a través de esta función. Además, sin un análisis de acceso, es imposible rastrear a los usuarios que han accedido a la URL o incluso cuántas veces se ha accedido.

Medidas recomendadas

Para mitigar estos riesgos, TredMicro comenta que tanto las personas como las organizaciones deben tener en cuenta lo siguiente, al utilizar la función de enlaces compartidos de ChatGPT:

● Conciencia de riesgo: comprenda los riesgos inherentes relacionados con la función. Cualquier persona con la URL del enlace compartido puede acceder a su contenido. Los usuarios también deben ser conscientes de que los enlaces pueden terminar con terceros no deseados por varias razones.

● Políticas y pautas: establezca políticas y pautas claras sobre qué información se puede ingresar en ChatGPT y qué se debe evitar. Esto debe incluir pautas sobre el uso de la función Shared Link y otras precauciones necesarias.

● Educación y capacitación: la capacitación regular sobre seguridad de la información puede ayudar a crear conciencia entre los empleados y evitar la fuga de información. La capacitación debe incluir escenarios de riesgo específicos y lecciones de casos reales.

● Monitoreo y respuesta: considere tecnologías como el filtrado de URL y la detección de transmisión de información confidencial para el monitoreo proactivo y el cumplimiento de las políticas y pautas establecidas. Es necesaria una respuesta rápida en caso de acceso inapropiado o fuga de información.

En conclusión, la función de enlace compartido de ChatGPT, puede tener sus ventajas y desventajas, pero sus riesgos inherentes y las precauciones necesarias para garantizar la seguridad del usuario deben ser prioridad. En una era en la que la adopción de la tecnología de IA afecta directamente la competitividad empresarial, es esencial comprender y administrar dichas características para proteger adecuadamente la información. Al hacerlo, las organizaciones pueden aprovechar los beneficios de la IA mientras mitigan de manera eficiente los riesgos de fuga de información.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Más tinta y tecnología