Forbes México.
Razones para motivar el uso responsable de la inteligencia artificial
La inteligencia artificial ha causado un revuelo en el mundo: están los que le temen, los que la adoran, los que la critican, pero la usan, los que dicen que niegan a manejarla, pero en privado la utilizan. Como en botica, en la inteligencia artificial hay de todo.
Más allá de las opiniones, está el hecho incontrovertible de que llegó para quedarse y está muy acomodada en nuestros ecosistemas personales, profesionales y corporativos. Entonces, lo importante en este momento es motivar un uso responsable de la inteligencia artificial.
Evidentemente, estamos enfrentados a una encrucijada de tipo ético de la que es más fácil hablar que realmente abordarla y poner manos a la obra. ¿Por dónde empezamos? Los profesores Michael Wade y Tomoko Yokoi de la Universidad de Harvard han tomado el toro por los cuernos y se reunieron con líderes empresariales de todo tipo de industrias para idear como implementar una cultura de uso responsable de la inteligencia artificial. Parece una respuesta de Perogrullo, pero ¿por dónde empezar? Por los principios.
Es verdad que en su estudio Wade y Yokoi encontraron más respuestas entusiastas que implementables alrededor de la inteligencia artificial. En su investigación, que incluyó empresas de varios ramos y tamaños, encontraron múltiples tipos de preocupaciones. Los ingenieros y los científicos se preocupaban por la forma en que se concibe el uso, es decir, cómo se puede prefigurar el ciclo de vida, los procesos, la seguridad. Los académicos y los líderes no técnicos se interesaban en el uso ético y en las repercusiones que habría en caso de que una persona hiciera mal uso de la tecnología y en si estas prácticas inadecuadas podrían traer más repercusiones negativas que efectos gloriosos.
A pesar de la diversidad de puntos de vista, lo primero es conocer de lo que se está hablando. Se trata de entender su uso y la mejor forma de convivir con la tecnología. También se trata de abordar el problema en su verdadera dimensión, sin minimizar sus repercusiones y sin exagerar las consecuencias. Por lo tanto, para justipreciar los beneficios y riesgos, hay que mantener el tema desde una perspectiva simple. Hay que manejar estándares. Los profesores Wade y Yokoi llegaron a darle al clavo para motivar el uso responsable de la inteligencia artificial, proponen cuatro pasos: Traducir, integrar, calibrar, proliferar. Con estos pasos, podemos avanzar en el galimatías del uso responsable de este adelanto que la tecnología nos ofrece.
Traducir
Se refieren a la simplificación de términos y procesos muy elevados para lograr su mejor entendimiento. En general, las empresas batallan con la implementación de estrategias porque los integrantes del equipo no entienden qué se espera de ellos. Lo mismo con el uso de la inteligencia artificial: hay que darles pasos muy específicos de cómo usarla y cómo no es adecuado hacerlo. Ese es un proceso constante. Inicia como un proyecto que se tiene que insertar en la vida de todos los días en los tres ámbitos: personal, profesional y corporativo.
Integrar
Se trata de incorporar aspectos éticos en el uso, diseño y desarrollo de procesos. Tal como lo decía Aristóteles la valoración ética es un atributo trascendental del Ser. Sócrates la identificaba con la virtud moral y a ésta con el saber. La virtud es inherente al hombre que es virtuoso por naturaleza y los valores éticos son constantes, por lo tanto el mal es el resultado de la falta de conocimiento. Dicho de otra manera, en el fondo del corazón, todos sabemos cuándo estamos haciendo bien o mal las cosas. Claro que hay quienes sabiendo que esto está mal, lo siguen haciendo. Así que, lo mejor es estandarizar la integración de los aspectos éticos en el uso de inteligencia artificial. Para ello, es necesario abrir un diálogo atento y profundo con quienes están en contacto con estos procesos y escuchar sus razones y motivaciones.
Calibrar
Hay que medir las soluciones propuestas por inteligencia artificial. Es curioso cómo los programas de inteligencia artificial son muy buenos para resolver problemas complejos y torpes para llegar a la solución de situaciones sencillas. El riesgo de no calibrar es que un error sencillo puede generar consecuencias garrafales. Creer a ciegas en cualquier cosa, incluso inteligencia artificial es un descuido. Un monitoreo incesante es indispensable ya que nos ayuda a detectar cambios necesarios y adaptaciones.
Proliferar
Se refiere a propiciar y motivar los aprendizajes logrados con un uso responsable de la inteligencia artificial. Muchas compañías de las revisadas por Wade y Yokoi abrieron grupos de reflexión en los que sus empleados podían participar, con independencia del nivel jerárquico que ocuparan. También, pusieron a disposición de su gente un boletín con contenido inherente al tema para que estuvieran enterados de los lineamientos, avances y buenas prácticas en el uso de inteligencia artificial.
La conclusión a la que llegaron los profesores Wade y Yokoi es evidente, aunque clara: es más fácil hablar de la disyuntiva ética en el uso de inteligencia artificial que implementar verdaderas estrategias de uso adecuado. Por alguna extraña razón, hay cierto prurito con respecto al tema y se trata de tapar el sol con un dedo. Se pasa la mirada por encima, sin querer entrar de lleno a abordar situaciones concretas.
El verdadero reto está en empezar por el comienzo que son los principios. Hacer una lista consciente, sólida y real de lo que está permitido o no en términos de usos y condiciones de inteligencia artificial. No se trata de otra cosa sino de valorar con responsabilidad las consecuencias positivas o negativas de su uso y anticiparse. Evidentemente, hoy el uso de inteligencia artificial es un elemento nodal en la cultura corporativa de las organizaciones.
No podemos soslayar que, en la actualidad, el uso de inteligencia artificial es un punto neurálgico en la toma de decisiones. Entonces, el objetivo claro y directo de traducir, integrar, calibrar y proliferar incidirá directamente en el rumbo de nuestras elecciones que, preferentemente, deberá de tener un componente ético. Lo importante en este momento es motivar un uso responsable de la inteligencia artificial.
Contacto:
Correo: ceciliaduran@me.com
Twitter: @CecyDuranMena
Las opiniones expresadas son sólo responsabilidad de sus autores y son completamente independientes de la postura y la línea editorial de Forbes México.
Sigue la información sobre los negocios y la actualidad en Forbes México
Razones para motivar el uso responsable de la inteligencia artificial
Cecilia Durán Mena
Red Forbes, Inteligencia Artificial Leer más
Descubre más desde Noticias al Momento
Suscríbete y recibe las últimas entradas en tu correo electrónico.