Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filtra por categorías
Actualidad
Actualidad
Actualidad
Actualidad
Adquisición
Aerolíneas
Alianzas
Alianzas
Alianzas
Alianzas
Aplicaciones
Arte
Audífonos con Tinta
Audiovisual
Canales
Casos de éxito
Ciberseguridad
Cine
Cine y TV
Columna
Columna de opinión
Columna de opinión
Columna de opinión
Conectividad
Cultura
Danza
Economía
Economía
Económicas
Educación
Educación
Emprendimiento
Emprendimiento
Emprendimiento
Emprendimiento
Estilo de Vida
Estilo de Vida
Estilo de Vida
Estilo de Vida
Eventos
Eventos
Eventos
Eventos
Exhibición
Exposición
Exposiciones
Festival
Festivales
Gamer
Gastronomía
Gastronomía
Gobierno
Gobierno
Gobierno
Gobierno
Hoteles
Infraestructura
Infraestructura
Innovación
Innovación
Innovación
Inversiones
Literatura
Lugares
Lugares
lugares
Medio Ambiente
Movilidad
Música
Música
Negocios
Planes
Planes
Planes
Planes
Poesía
Predicciones
Productos
Pymes
Reconocimiento
Recursos Humanos
Recursos Humanos
Reseña
RR.HH.
RSE
RSE
RSE
Seguridad
Seguridad
Servicio
Servicios
Servicios
Sociales
Sociales
Sociales
Sociales
Software
Sostenibilidad
Sostenibilidad
Sostenibilidad
Sostenibilidad
Sostenibilidad
Teatro
Tecnología
Telecomunicaciones
Televisión
Tendencias
Tendencias
Tendencias
Turismo
Uncategorized

La ética, pilar de la Inteligencia Artificial

Síguenos en Google News

Conviértenos en tu fuente de información en Google News.

El 79% de los directores ejecutivos en el mundo dice que la ética de la Inteligencia Artificial (IA) es importante en toda la empresa, pero menos del 25% ha puesto en práctica principios comunes de la ética de la IA, de acuerdo con un estudio de IBM, que dio a conocer en el evento anual Tech Fest.

El ‘Tech Fest’, realizado en Medellín y Bogotá, reunió a más de 600 personas para conocer los avances de la Inteligencia Artificial, ciberseguridad, nube híbrida y otras tecnologías emergentes, donde IBM destacó la gobernanza de la IA como una de las tendencias y prioridades para las empresas del país.

“Lograr una IA responsable puede ser un desafío. La IA responsable requiere gobernanza y, para muchas organizaciones, esto implica un trabajo constante, tiempo e inversión, pero debe ser una prioridad. Una IA ética con resultados explicables es fundamental para que las personas confíen en una marca, pero también lo es para las juntas directivas o inversionistas. La gobernanza de la IA es la clave para el éxito de una organización”, aseguró Patricio Espinosa, gerente general de IBM para el norte de Suramérica.

Citando casos de uso de IA en Colombia como los de la Fiscalía, Agrosavia, tarjeta Tuya, e internacionales como Citibank, Bradesco, ABN AMOR Bank, ESPN, Premios Grammy, entre otros, Espinosa comentó que la adopción de la IA se va dando en varias áreas de la empresa, pues son implementaciones estratégicas pero que están alineadas dentro de los planes de transformación digital, que implica una transformación cultural.

IBM dio a conocer la hoja de ruta para que las empresas implementen IA con responsabilidad en Colombia:

  1. Incluir la gobernanza de la IA como prioridad en la estrategia de la empresa: un buen comienzo es establecer principios, guías y procesos para una IA responsable. Se trata de definir cuál es la visión de la IA, en términos de alineación de valores de la tecnología con los valores de la organización, y reforzar la diversidad y la colaboración interdisciplinaria en los equipos y en las formas de trabajo.
  2. Tener a un responsable de gobierno y ética de la IA o un grupo de tomadores de decisiones de alto nivel: Varios trabajos han surgido con la IA y apuntan directo a esta necesidad, como los Líderes en ética de IA, directores de privacidad y confianza, Asesores de ética de IA y los Expertos legales en IA. Las organizaciones deben incluir este tipo de roles que, no solamente gestionan o lideran los procesos para el manejo responsable de la IA, sino son claves en el monitoreo del cumplimiento de las regulaciones existentes y tienen lista a la organización para cumplir con las próximas regulaciones de IA.
  3. Implementar herramientas que permitan auditar los modelos de IA en busca de sesgos y discriminación: La detección proactiva de sesgos y desviaciones de la IA es necesaria para proteger la privacidad, la lealtad, la confianza y la seguridad de los usuarios o clientes. Por ejemplo, en banca y finanzas, es monitorear que los procesos de aprobación estén siendo justos y transparentes. O, en servicio al cliente, supervisar los chats en busca de señales de alerta relacionadas con toxicidad, información personal o conversaciones fuera de tema y alerte cuando las respuestas estén fuera de las normas sociales.

Espinosa comentó que si bien la IA generativa, impulsada por los Grandes Modelos de Lenguaje (LLMs) o Modelos Fundacionales, ofrece muchos casos de uso para las empresas, también plantea nuevos riesgos y complejidades, desde los datos de entrenamiento extraídos de Internet, que no pueden ser validados como justos y precisos, hasta la falta de explicación de los resultados. Ante ello, Watsonx.governance proporciona las herramientas que necesitan las organizaciones para gestionar el riesgo, abrazar la transparencia y anticipar el cumplimiento de futuras regulaciones centradas en IA.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Más tinta y tecnología