Saltar al contenido

Rumbo a la Adopción Veloz de la IA en las Industrias: Un Giro hacia la Ética y la Responsabilidad

04/01/2024
A Medida Que Las Industrias Se Preparan Para Una Adopcion

La inteligencia artificial es, en su núcleo, aprendizaje automático (ML), el procedimiento a través del cual las máquinas aprenden a mejorar su desempeño basándose en la entrada de datos. La vasta cantidad de datos disponibles actualmente implica que la IA ha encontrado un terreno propicio para prosperar, acelerando en una velocidad asombrosa en los últimos años. Y la proyección de la IA ha impulsado a tecnólogos y líderes de industrias diversas a pensar de forma creativa acerca de sus múltiples aplicaciones.

Desde la revolución industrial, cualquier época de rápido progreso tecnológico ha sido marcada por una mezcla de entusiasmo y temor. El Consorcio Mundial de la Web (W3C), un grupo que desarrolla estándares para la industria de desarrollo web, destaca que «existe un reconocimiento creciente de que la aplicación de aprendizaje automático plantea riesgos y puede ocasionar daños», incluyendo áreas críticas como: sesgos, privacidad, seguridad, sostenibilidad y responsabilidad universal.

Error 403 The request cannot be completed because you have exceeded your quota. : quotaExceeded

Hay una demanda clara de un enfoque ético para el aprendizaje automático, evidenciado a través del activismo de la sociedad civil, la aparición de unos 100 conjuntos de principios éticos de IA en todo el mundo y las acciones gubernamentales globales para regular la IA. escribió el grupo. «Si las tecnologías no están armonizadas con los valores de las sociedades en las que operan, corren el riesgo de debilitarlas».

Elecciones Bien Pensadas

A primera vista, podría parecer difícil argumentar que la mayor eficiencia y productividad sean malas para los negocios. Sin embargo, para ciertas industrias, hay mucho en juego con respecto al proceso de toma de decisiones que, según algunos, no debería ser totalmente automatizado. Al mirar algunas de las industrias más grandes, podemos darnos cuenta de cuán susceptibles somos a los fallos de las máquinas y por qué la IA responsable es crucial.

Banca, Servicios Financieros y Seguros (BFSI)

El Foro Económico Mundial (WEF) y Deloitte analizaron el proceso de implementación de la IA en las empresas BFSI y encontraron que, «mientras que la IA puede ayudar a generar conocimientos empresariales valiosos a partir de una cantidad abrumadora de información», el «cara desconocida de la IA» será una fuente persistente de riesgo considerable.

«La IA razona de manera no humana», se lee en el informe. “Los sistemas de IA no siguen construcciones lógicas humanas y actúan de forma muy distinta a los actores humanos cuando se les asigna la misma tarea. Además, la característica autodidacta de los sistemas de IA les permite evolucionar sin intervención humana, lo que puede dar lugar a resultados inesperados basados en variables desconocidas”.

Los defensores de una IA responsable argumentan que el aprendizaje automático representa serios problemas en aspectos como la calificación automática de riesgos, decisiones crediticias y de préstamos, las cuales han perjudicado históricamente a ciertos grupos demográficos. Estudios recientes han demostrado que los prestamistas que utilizan motores de decisión basados en inteligencia artificial tenían más probabilidades de rechazar hipotecas a las personas de color; en algunos casos, El 80% de los solicitantes negros tienen más probabilidades de ser rechazados.

Atención Médica

Hace unos años, la Revista de la Asociación Médica Estadounidense (JAMA) Examinó la adopción de la IA en la atención médica y descubrió que los desafíos son múltiples, incluyendo «expectativas poco realistas, datos sesgados y no representativos, una priorización inadecuada de la equidad y la inclusión, el riesgo de exacerbar las disparidades en la atención médica, bajos niveles de confianza y entornos regulatorios inciertos».

No es precisamente un respaldo completo, pero ciertamente hay un estándar más alto para la IA responsable en la atención médica, especialmente teniendo en cuenta las potenciales consecuencias de vida o muerte. En términos generales, los profesionales de la salud son optimistas pero cautelosos respecto al futuro de la IA y optan por centrar sus esfuerzos en educar a otros profesionales sobre su uso en el entorno clínico y crear directrices sobre cómo avanzar de manera responsable de una manera que beneficie a todos los pacientes.

Medios de Comunicación

PwC estima que la IA proporcionará 15,7 billones de dólares de crecimiento económico mundial para 2030 pero según salesforce menos de la mitad (48%) de los clientes confían en que las empresas usarán la IA de forma ética, y el 65% está preocupado por el uso poco ético de la IA. En el cruce entre las ganancias y la confianza, se encuentran las empresas de medios, pioneras en adoptarlas y con un alcance e influencia enormes. Y hay preocupación por el hecho de que la IA no es una aplicación de “configúrelo y olvídese”, lo que significa que para las empresas de medios, su responsabilidad no es sólo la producción de contenido, sino también su seguimiento continuo después de su implementación.

¿Cómo se publican y personalizan los anuncios? ¿Cómo llega el contenido a una audiencia en particular y cuál es el mensaje? ¿Quién está enseñando a la IA «cómo» aprender? ¿Y cómo puede llegar a consumidores específicos respetando al mismo tiempo la privacidad? Estas son sólo algunas de las preguntas que pesan en las empresas de medios mientras intentan equilibrar la ética con una ventaja competitiva.

La Solución a la Responsabilidad

El progreso en el desarrollo de una IA responsable es evidente cada día: los legisladores están redactando regulaciones, los consumidores exigen más transparencia y muchas empresas han creado departamentos específicos encargados de garantizar que su IA se utilice de manera adecuada. Las empresas necesitan un marco de IA responsable bien definido que cubra ética, transparencia, responsabilidad, equidad, privacidad y seguridad. Mientras los debates y las reformas continúan, un reciente estudio conjunto realizado por MIT Sloan Management Review y Boston Consulting Group proporciona una guía simple: ellos escribieron: «Si quieres ser un líder responsable en IA, concéntrate en ser una empresa responsable».

LEE MÁS ARTÍCULOS SOBRE: Noticias de IA.

LEE LA ENTRADA ANTERIOR: Mejoramiento de la visión artificial impulsada por IA mediante conciencia física.