Los 5 pilares éticos de la inteligencia artificial

Para todo aquél que quiera liderar la transformación digital de su organización, la pregunta crucial es ¿cómo puede beneficiarse mi empresa de las oportunidades que ofrece la tecnología al tiempo que salvaguarda el bienestar de empleados, clientes y sociedad?.

La inteligencia artificial en la empresa se tiene que apoyar en pilares éticos

El escenario que ahora se vislumbra, tanto de amenazas como de oportunidades, es en el que convivirán los niños de hoy en día en el que la presencia de máquinas inteligentes será una constante en sus vidas.

Así, el nivel y la velocidad de disrupción y cambio al que se enfrentan los responsables de las empresas y la sociedad por el avance de la inteligencia artificial (IA) no tiene precedentes en la historia de la humanidad.

A diferencia de las anteriores tecnologías disruptivas que emergieron lentamente, en la actualidad estamos viendo como la IA impulsa el desarrollo de nuevos productos, hace posible experiencias extraordinarias de cliente y varía la naturaleza del trabajo en sí.

Pero para que la inteligencia artificial suponga un verdadero éxito, debe implantarse de manera responsable

A fin de crear una empresa ética y mantenerla en el futuro, la inteligencia artificial debe regirse y controlarse de manera responsable, y por eso queremos mostrar 5 pilares éticos en los que se debe apoyar la IA en nuestras organizaciones.

Vamos a verlos:

1. Transformar el lugar de trabajo

El reto más inmediato al que se enfrentan los directivos es la disrupción en el lugar de trabajo, que se ve afectado por el cambio radical en las funciones y las tareas y el auge de análisis de datos para la toma de decisiones basadas en la automatización.

Aunque se ha prestado mucha atención al potencial impacto negativo de las tecnologías de automatización en los puestos de trabajo, creemos que ello distrae lo que verdaderamente es importante: crear las habilidades que las empresas van a necesitar para alcanzar el éxito y potenciar el valor a largo plazo en un mundo digitalizado.

La plantilla del futuro requiere un nuevo enfoque en la empresa, transparente y completamente centrado en el empleado

Inteligencia Artificial en la Economía circular: robot en la agricultura

¿Cómo pasar a la acción?

Las organizaciones pueden prepararse ya para estos cambios, ayudando a los empleados a adaptarse a la función de las máquinas en sus puestos de trabajo

Plantearse una asociación con instituciones académicas u otras organizaciones líderes en este tipo de conocimientos para crear programas con el fin de ayudarles con estas nuevas habilidades.

Esto también ayuda a las organizaciones a contratar con eficiencia, y ayudarán a los estudiantes a decidir una trayectoria profesional en un campo demandado.

Simultáneamente, los responsables han de ser conscientes de que la transformación en el lugar de trabajo constituye un reto de gestión del cambio

Esto lleva aparejado comunicar claramente los cambios y ventajas de la adopción, hasta el nivel de las tareas, y fomentar nuevas funciones y roles que añadan valor para el trabajo y la empresa.

La dirección debe ser consciente y reconocer necesidades individuales, así como determinar la mejor manera de proporcionar una formación y un desarrollo en consonancia con sus aptitudes e intereses.

También debe plantearse crear encuestas que examinen el grado de preparación del personal, y proponer un plan para subsanar las carencias.

El desarrollo de iniciativas específicas de formación y su adecuada comunicación serán factores clave del éxito.

2. Establecer supervisión y buen gobierno

Existen iniciativas emergentes enfocadas a la creación de nueva regulación y supervisión de la IA, como pueden ser el Reglamento General de Protección de Datos (RGPD), elaborado y aprobado por la Unión Europea en 2018, y el establecimiento, en febrero de 2019, de la American AI Initiative.

Estos marcos de actuación refuerzan nuestro punto de vista de que las empresas deben poner ya en marcha iniciativas formativas, antes de la disrupción más profunda en la plantilla propiciada por la IA.

En última instancia, la responsabilidad de formar y gestionar a la plantilla capacitada para la IA corresponde a la empresa, y cuanto antes inicien los responsables este recorrido, más influencia tendrán en las iniciativas y reglamentos venideros.

¿Cómo pasar a la acción?

Establecer políticas claras en toda la empresa respecto de la implantación de IA, incluido el uso de datos y reglas de privacidad

Al adoptar esta importante medida se mantiene a la empresa en la vanguardia y puede ayudar a influir en la dirección de la legislación, dado que los responsables de la elaboración de políticas toman como modelos a las organizaciones de éxito.

Gobierno de datos e IA

Cada organización (de cualquier tamaño o naturaleza) necesita conocer a fondo los datos y los marcos que respaldan la IA, de modo que puedan utilizar ese conocimiento para inspirar confianza a las partes interesadas.

Las marcas han de ajustarse a los datos y establecer prácticas firmes de buen gobierno, y necesitarán también supervisar los resultados de manera continua para asegurarse de que son equitativos y precisos, y que se mantienen fieles a los objetivos originales.

Crear algoritmos basados en un sólido marco ético

Este es un imperativo básico para los encargados de implantar la IA de manera responsable.

Los responsables de las empresas y los Gobiernos deben establecer jerarquías de responsabilidad para la construcción y la implantación de algoritmos complejos.

Los responsables pueden tomar medidas para incluir la incorporación de responsables de ética en el equipo de alta dirección, creando comités directivos que incluyen a diversos responsables.

3. Alinear la ciberseguridad y la ética en IA

Los algoritmos autónomos suscitan dudas acerca de riesgos de seguridad a medida que aumenta su influencia en el negocio.

Los ataques deliberados que envenenan los algoritmos falsificando datos de formación pueden llegar a poner en peligro la privacidad y generar sesgo, deteriorando la experiencia del usuario y dañando la propiedad intelectual, la reputación de la marca u otros activos clave de la empresa.

Integrar personas y máquinas de forma que se aprovechen al máximo las capacidades de ambas es el gran reto al que se enfrentan ahora las empresas.

Este es uno de los motivos por los que gobernar y controlar los sistemas de aprendizaje automático (machine learning, ML) sean prioridades urgentes.

Las empresas son conscientes de que mitigar el riesgo que plantean los algoritmos es imperativo para la empresa y la marca.

Pero la necesidad va mucho más allá, pues los sistemas de aprendizaje automático (ML), cada vez más sofisticados, influyen en el comportamiento y las expectativas de las personas.

Son millones los dispositivos IoT expuestos a problemas de seguridad

¿Cómo pasar a la acción?

Aportar una fuerte seguridad a la creación de algoritmos y el gobierno de los datos

Cuando hay una dirección ética en los fundamentos del desarrollo de algoritmos, la integridad general del modelo será más sólida.

Estos aspectos contribuyen a aportar seguridad a la IA:

  • Conocer a fondo el contexto y el propósito buscado conforme al que se desarrolló el modelo
  • Identificar quién habilitó los algoritmos
  • Conocer la procedencia de los datos y los cambios realizados en los mismos
  • Conocer cómo se atienden y protegen los modelos ahora y en el pasado
  • Llevar a cabo una revisión y una confirmación continuas de la efectividad y la precisión del algoritmo

4. Reducir el sesgo

Los responsables y los reguladores quieren conocer el funcionamiento de algoritmos sofisticados y autónomos, a fin de poder adoptar medidas para eliminar sesgos parciales a lo largo del tiempo mientras continúan evolucionando.

Por este motivo, ha pasado a ser muy importante conocer qué atributos de los datos de habilitación influyen en las predicciones del modelo.

Cuando la habilitación se interrumpe durante largos periodos de tiempo, el modelo puede perder integridad: el sesgo puede aparecer y problemas como los ataques deliberados pueden poner en peligro la información que incorpora.

Todos los responsables deben asumir el imperativo moral de mitigar el sesgo mediante el gobierno de IA durante todo su ciclo de vida, y a continuación adoptar nuevas medidas para gestionar y dirigir una plantilla cada vez más diversa a medida que cambia la naturaleza del trabajo.

Controlar los algoritmos sofisticados es un elemento esencial de la ética en IA. Los algoritmos no serán objeto de confianza si no son equitativos, y para ello han de ser diseñados y construidos para que estén lo más libres posible de sesgos. Además, necesitan mantener la equidad a medida que evolucionan. 

Según estudios recientes, la inteligencia artificial funciona mejor si no se la utiliza como una especie de caja mágica para sustituir a los humanos y recortar costes, sino como una fuerza multiplicadora que se emplea para crear nuevo valor.

Al hacer que la IA sea más explicable, auditable y transparente, podemos conseguir que nuestros sistemas sean más equitativos, efectivos y útiles.

¿Cómo pasar a la acción?

Velar por que la meta y la finalidad de los algoritmos críticos se definan y documenten claramente

Verificar que el diseño está en consonancia con los principios, normas y directrices, valores y ética empresariales, cumplimiento, y normas de seguridad y calidad.

La mejor manera para identificar y evitar el sesgo podría encontrarse en los equipos encargados de dirigir la habilitación de los algoritmos.

Asimismo, es importante llevar a cabo una revisión independiente de modelos críticos en los que el sesgo pueda producir un impacto social adverso.

Sin acciones de este tipo, las propias oportunidades y ventajas de la IA podrían desvanecerse.

5. Aumentar la transparencia

Algunos directivos están proponiendo normas universales de equidad a medida que avanza la IA y el aprendizaje automático (ML).

El objetivo sería la transparencia y, sobre todo la claridad, para ciudadanos y consumidores a quienes confunden los datos y la información que proporcionan en experiencias digitales (y analógicas).

El poder y el compromiso de la IA pueden llegar a su máximo nivel si entendemos y controlamos su estructura y acciones. Por ello, las empresas han de establecer una política de gestión general para la IA, haciendo hincapié en extender el poder de las tecnologías de IA de forma responsable.

Las empresas (especialmente las grandes tecnológicas) están lanzando mensajes claros e interfaces de usuario para que las personas puedan entender y decidir fácilmente cómo han de prestar servicio las marcas.

Este debe ser el valor por defecto para el énfasis de cualquier marca en la creación e impulso de la confianza.

En las ciudades conviven múltiples culturas

¿Cómo pasar a la acción?

Crear contratos de confianza

Proporcionar a los clientes la claridad y la información que buscan y necesitan. Este es el principio rector básico que las marcas deben aplicar.

La parte complicada consiste en ofrecer sencillez y claridad acerca de aspectos complejos, explicando cómo se utilizan los datos y por qué influyen en la experiencia del cliente.

Es necesario hacer llegar al público que se está siendo transparente y lo que van a suponer las decisiones acerca de los datos personales.

Hay que considerar el manejo de la información de identificación personal y los datos como lo que se conoce como un contrato de confianza.

Si te ha interesado este tema y quieres profundizar en él puedes acceder al informe de KPMG titulado Ética en IA: cinco pilares, y disponible en nuestro fondo documental ecointeligente.

Ricardo Estévez

Mi verbo favorito es avanzar. Referente en usos innovadores de TIC + Marketing. Bulldozer sostenible, fundador de ecointeligencia y director de TIMUR

Deja una respuesta

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.