Enlaces para accesibilidad

¿Se puede garantizar el buen uso de inteligencia artificial?


La impresión predominante en algunos sectores es que las campañas para garantizar el uso ético de la Inteligencia Artificial no son demasiado serias.
La impresión predominante en algunos sectores es que las campañas para garantizar el uso ético de la Inteligencia Artificial no son demasiado serias.

Las grandes compañías tecnológicas aseguran que están tomando las medidas necesarias para garantizar que el uso de la inteligencia artificial para analizar montañas de información y rostros y crear asistentes virtuales, no incursione en mundos tenebrosos.

No todo el mundo, no obstante, está satisfecho con sus esfuerzos y hay quienes dicen que las empresas solo toman medidas superficiales y que en realidad les interesa más generar ganancias que proteger los intereses de la sociedad.

La expresión de moda en estas empresas es “el uso ético de la IA”. Aparece en toda conversación, informes internos, descripciones de funciones, proyectos de investigación e iniciativas filantrópicas. El objetivo es despejar las inquietudes que pueda haber en torno a prejuicios raciales o de género asociados con el reconocimiento facial y otros sistemas, así como el temor a la pérdida de trabajos y al uso que le pueden dar a esta herramienta la policía y las fuerzas armadas.

¿Pero qué tan serias son estas campañas de relaciones públicas enfocadas en el uso ético de esta tecnología? ¿Y quién decide qué puede ser perjudicial y qué no?.

Google abordó esos dos temas al formar una junta de asesores independientes a fines de marzo para que ayuden a navegar estas aguas. Pero en lugar de generar confianza entre sus detractores, provocó resquemores internos. Poco más de una semana después, cedió a las presiones y disolvió ese panel.

Uno de los ocho integrantes originales de ese grupo se fue solo a los pocos días y otra fue de inmediato blanco de críticas de los empleados de Google, que dijeron que sus puntos de vista conservadores no encajaban con los valores de la empresa.

Miles de empleados pidieron que la presidenta de la Heritage Foundation Kay Coles James fuese marginada del panel y Google terminó disolviéndolo la semana pasada.

“Es evidente que en las actuales circunstancias ese grupo no puede funcionar como hubiéramos querido”, dijo la compañía en un comunicado.

La impresión predominante en algunos sectores es que las campañas para garantizar el uso ético de la IA no son demasiado serias.

“Creo que (la decisión de Google) refleja la sensación generalizada de que la ética es algo más que nombrar una junta asesora sin una estructura institucional para rendir cuentas”, expresó el investigador Ben Wagner.

La iniciativa de Google se inscribió en el marco de lo que Wagner describe como esfuerzos superficiales, acciones de relaciones públicas que buscan impresionar a la gente y a los legisladores.

“Es básicamente un intento de hacer creer que estás haciendo cosas éticas y usando la ética para lograr ciertos objetivos, como evitar regulaciones”, opinó Wagner, profesor asistente de la Universidad de Economía y Negocios de Viena. “Es una nueva forma de regularte a ti mismo sin llamar las cosas por su nombre”.

Las grandes empresas se han esforzado por hablar sobre sus políticas hacia la IA en los últimos años.

Microsoft, que a menudo trata de presentarse como empresa líder en el terreno de la privacidad y la ética, hizo públicos los principios que guían su exploración de la IA, publicó un pequeño libro en el que analiza el impacto de la tecnología en la sociedad y dijo que hace falta cierto grado de regulación gubernamental de la tecnología.

El presidente de la firma incluso se reunió con el papa Francisco este año para hablar de la ética en este campo.

Amazon anunció hace poco que ayudaría a financiar las investigaciones del gobierno en torno a la “imparcialidad de los algoritmos” y Salesforce emplea un “arquitecto” para un uso ético de la AI, así como un funcionario a cargo de supervisar su “uso ético y humano”. Cuesta encontrar una empresa grande sin iniciativas de este tipo.

Está bien que las firmas estudien el tema y busquen la perspectiva de expertos en cuestiones éticas, de acuerdo con Oren Etzioni, CEO del Instituto Allen para la Inteligencia Artificial, una organización que hace investigaciones. Pero al final de cuentas, agregó, el CEO de una empresa será el que decide qué recomendaciones de los paneles de ética incorporan a su firma.

“Creo que, en términos generales, son pasos positivos, no una patraña”, manifestó. “De todos modos, todo dependerá del uso que se le da a todo esto. Es demasiado temprano para saber”.

El impacto que puede tener la IA en la sociedad nunca ha sido más evidente, señaló Etzioni, y las empresas reaccionan a estudios acerca de las recomendaciones de los algoritmos y los prejuicios de género en la IA.

Joanna Bryson, profesora asociada de computación en la Universidad de Bath que se describe como liberal y quien integró el panel asesor de Google, dijo que no cree que la iniciativa haya sido algo equivalente “a poner un afiche en la pared”.

“No creo que Google sea tan estúpida”, afirmó.

Admitió, no obstante, que firmas como Google y Microsoft están interesadas en demostrar que hacen todo lo posible por ofrecer productos bien hechos, que no las exponen a consecuencias graves.

“No lo hacen solo porque es lo indicado, sino porque necesitan hacerlo” para cubrirse, expresó.

Para Liz O’Sullivan, quien se fue de la empresa de IA Clarifai en desacuerdo con su colaboración con el Pentágono, opina que, incluso si las compañías siguen nombrando paneles de expertos para asegurarse de que se manejan responsablemente, siempre será necesaria alguna regulación del gobierno.

No le convence la idea de que haya paneles que hacen recomendaciones que no tienen que ser acatadas necesariamente.

“Todas las empresas grandes que dicen que quieren tener algún tipo de supervisión sin autoridad para controlar su comportamiento pareciera que lo hacen solo para generar noticias positivas”, declaró.

Síganos en redes sociales

XS
SM
MD
LG