CDMX
Una de las grandes preocupaciones que tienen las empresas con relación al desarrollo e implementación de la Inteligencia Artificial es que ésta sea responsable, ética y que no genere mayores desigualdades.
De acuerdo con Meredith Broussard, profesora asociada del Instituto de Periodismo Arthur L. Carter de la Universidad de Nueva York, esta tecnología implica la creación de modelos matemáticos basados en patrones de datos que pueden usarse para tomar decisiones, hacer pronósticos, generar texto, imágenes o audio.
“La gente todavía está un poco confundida acerca de qué es y qué no es la Inteligencia Artificial (…) es sólo matemática, una matemática muy complicada y hermosa”, resaltó en el marco de VMware Explore 2023.
Broussard aceptó que un problema radica en que los sesgos del mundo real se reflejan en los datos utilizados para entrenar esos modelos matemáticos y, si no se tiene cuidado, podrían discriminar a ciertos segmentos de la sociedad.
Por ejemplo, un modelo para aprobación de hipotecas tenía 80% más de probabilidades de rechazar a los solicitantes negros y 70% en el caso de los nativos americanos.
“No es sorprendente que se estuvieran tomando decisiones sesgadas, vamos a tener conversaciones difíciles sobre raza, género y discapacidad en la oficina”, advirtió.
Otros riesgos de los modelos de Inteligencia Artificial tienen que ver con la exposición, no deseada, de datos exclusivos de la empresa o del cliente, así como la generación de información falsa.
En este último punto destaca el caso de un abogado que utilizó ChatGPT para generar casos judiciales inexistentes que ponerlos en el expediente legal de uno de sus clientes.
Chris Wolf, vicepresidente de VMware AI Labs, consideró que los humanos serán el factor clave que determine cómo se utilizará esta tecnología.
La cual no significará que las personas pierdan sus empleos, al contrario, ayudará a hacer varios puestos de trabajo más sencillo y generará otros. “La Inteligencia Artificial nos ayuda y el trabajo humano es asegurarse de que sea correcta, todavía tendremos que supervisarla”.
Lo que se necesita
Lo cierto es que todavía faltan estándares en la industria que permitan comprender la exactitud de la Inteligencia Artificial y los resultados que arroja.
La profesora asociada pidió establecer una auditoría algorítmica, es decir, observar un algoritmo y evaluarlo en busca de sesgos.
“Ajustar y utilizar correctamente los modelos de Inteligencia Artificial es fundamental, especialmente en áreas como el desarrollo de software”, agregó Wolf.
Quien consideró la necesidad de colaboración entre departamentos e, incluso, tener la posibilidad de incluir equipos legales y de seguridad para garantizar la implementación ética de esta tecnología.
Tampoco deben olvidarse los esfuerzos que están haciendo las autoridades de varios países para diseñar una regulación para la Inteligencia Artificial, por ejemplo, una agencia del Departamento de Comercio de Estados Unidos publicó un marco de gestión de riesgos de esta tecnología como una guía voluntaria para el sector a inicios de este año.
Thomas Kurian, CEO de Google Cloud, consideró que la regulación para la Inteligencia Artificial debe ser similar alrededor del mundo.
“Recomendamos fuertemente que sea consistente o al menos similar globalmente, porque muchas de las plataformas de Inteligencia Artificial están siendo utilizadas en muchos países y será un desafío para una empresa decir en este país puedo hacer esto y en este otro país no puedo”, recomendó.