Hacia una inteligencia artificial sostenible

En general, las tecnologías habilitadoras digitales (THD), y en particular la inteligencia artificial (IA) tienen el potencial de crear riqueza. La cuestión es que ésta va a ir principalmente a quienes ya gozan de bienestar, mientras que otros en peor situación les llega mucho menos de esta riqueza.

El desarrollo de la inteligencia artificial pasa por ser sostenible

A nivel mundial, la creciente importancia económica de la IA puede resultar en un aumento de las desigualdades debido a una la distribución desigual de los recursos educativos y de computación en todo el mundo.

Además, los sesgos existentes en los datos utilizados para entrenar los algoritmos de IA pueden resultar en la exacerbación de esos sesgos, lo que eventualmente puede conducir a una mayor discriminación.

Otro problema relacionado es el uso de la IA para producir propaganda y noticias de dudosa autenticidad (noticias falsas, fake news) basada en big data, que se difunden por medio de las redes sociales con el objetivo de manipular a la opinión pública y producir una polarización política.

A pesar de que las evidencias científicas actuales refutan el determinismo tecnológico de tales noticias falsas, los impactos a largo plazo de la IA son posibles debido a la falta de métodos de investigación sólidos. Por tanto, es necesario un cambio de paradigma para promover la cooperación y limitar las posibilidades de control del comportamiento de los ciudadanos por medio de la IA.

Así, concepto como el de finanzas 4.0 aparece con un sistema financiero multidivisa que promueve la economía circular, alineada con los objetivos y valores de la sociedad. En este sistema, la autodeterminación informativa (en la que el individuo asume un papel activo en la forma en que los sistemas de IA manejan sus datos) es aspecto esencial del modelo.

Otro problema es la gran cantidad de datos que requieren las aplicaciones de IA para para mejorar sus algoritmos, lo que entra en conflicto con la necesidad de un manejo y protección más transparente de los datos personales.

Un área en la que este conflicto es particularmente importante es la atención médica. Aunque la gran cantidad de datos de atención médica personal podría conducir al desarrollo de herramientas poderosas para el diagnóstico y el tratamiento, los numerosos problemas asociados con la propiedad de los datos y la privacidad exigen una política y normativa cuidadosas.

El modelo de smart city está lleno de ejemplos de aplicaciones basadas en inteligencia artificial

Estos desafíos mencionados culminan con el dilema de la personalidad jurídica de los robots, que puede conducir a narrativas de totalitarismo tecnológico hasta solo desarrolladas por la ciencia ficción.

Muchos de estos aspectos son propios de las interacciones entre personas y tecnología, y estas interacciones no están actualmente equilibradas y la llegada de la IA ha contribuido a exacerbar el proceso.

El poner a disposición de las personas una gama muy amplia de THD, que afectan significativamente a su forma de vida, requiere de nuevos procedimientos y pruebas de concepto por parte de los gobiernos.

El problema es que ni los individuos ni los gobiernos parecen ser capaces de seguir el ritmo de estos desarrollos tecnológicos. Este hecho queda ilustrado por la falta de una legislación adecuada que garantice la viabilidad a largo plazo de estas nuevas tecnologías.

Ya que es necesario revertir esta tendencia, un primer paso en esta dirección es establecer marcos normativos y legislativos adecuados, para ayudar a dirigir el vasto potencial de la IA hacia el mayor beneficio para las personas y su entorno, así como hacia la consecución de los Objetivos de Desarrollo Sostenible (ODS).

La supervisión regulatoria debe ir precedida de conocimientos regulatorios, donde los responsables de la formulación de políticas tienen un conocimiento suficiente de los desafíos de la IA para poder formular políticas sólidas.

Se estima que desarrollar ese conocimiento es incluso más urgente que la supervisión, ya que es probable que las políticas formuladas sin comprensión sean ineficaces en el mejor de los casos.

Los Objetivos de Desarrollo Sostenible y los negocios

Aunque se necesitan instituciones sólidas y conectadas para regular el futuro de la IA, algo que está cubierto por el ODS 16, encontramos que existe una comprensión limitada del impacto potencial de la IA en las instituciones. Ejemplos de impactos positivos incluyen algoritmos de inteligencia artificial destinados a mejorar la detección de fraudes o evaluar los posibles efectos de cierta legislación.

Otra preocupación es que los enfoques policiales basados en datos pueden obstaculizar el acceso equitativo a la justicia debido al sesgo de los algoritmos, en particular hacia las minorías.

En consecuencia, parece que es imperativo desarrollar legislación sobre transparencia y responsabilidad de la IA, así como decidir los estándares éticos a los que se debe someter la tecnología basada en IA. Este debate está siendo impulsado por iniciativas como el diseño ético alineado del IEEE y las nuevas directrices éticas de la Unión Europea para una IA confiable.

Cabe señalar que, a pesar de la importancia de un enfoque ético, responsable y confiable para el desarrollo y el uso de la IA, en cierto sentido, las aplicaciones de IA que tienen como objetivo los ODS deben ser abiertas y explícitas sobre los principios éticos rectores, también indicando de forma clara cómo se alinean con las pautas existentes.

Por otro lado, la falta de interpretabilidad de la IA, que actualmente es uno de los desafíos de la investigación de la IA, agrega una complicación adicional a la aplicación de tales acciones regulatorias. Esto implica que los algoritmos de IA (que se entrenan con datos que consisten en regulaciones y decisiones previas) pueden actuar como un espejo que refleja y amplifica sesgos y políticas injustas.

Esto presenta una oportunidad para identificar y corregir posiblemente ciertos errores en los procedimientos existentes. La fricción entre la adopción de aplicaciones de IA impulsadas por datos y la necesidad de proteger la privacidad y la seguridad de las personas es marcada.

Cuando no se regula adecuadamente, la gran cantidad de datos producidos por los ciudadanos podría potencialmente usarse para influir en la opinión de los consumidores sobre un determinado producto o causa política.

Es posible que las aplicaciones de IA que tienen implicaciones positivas en el bienestar social no siempre beneficien a nivel individual, por lo que un conjunto único de principios éticos utilitarios con IA no sería recomendable debido a la alta complejidad de nuestras sociedades.

También es esencial ser consciente de la complejidad potencial en la interacción entre los agentes humanos y de la IA, y de la creciente necesidad de una legislación basada en la ética y mecanismos de certificación para los sistemas de IA.

Esto es cierto para todas las aplicaciones de IA, pero especialmente para aquellas que, si se descontrolan, podrían tener efectos incluso catastróficos en la humanidad, como podría ser el caso de las armas autónomas.

Respecto a esto último, las asociaciones de expertos en IA y robótica ya se están reuniendo para pedir legislación y limitaciones de su uso. Además, asociaciones como el Future of Life Institute están revisando y recopilando acciones de política y principios compartidos en todo el mundo para monitorear el progreso hacia una inteligencia artificial sostenible.

Los robots colaborativos y autónomos son un desafío para el trabajo con personas

Para hacer frente a los dilemas éticos planteados anteriormente, es importante que todas las aplicaciones brinden franqueza sobre las opciones y decisiones tomadas durante el diseño, desarrollo y uso, incluida información sobre la procedencia y la gobernanza de los datos utilizados para los algoritmos de entrenamiento, y sobre si y cómo se alinean con las directrices de IA existentes.

Por tanto, es importante adoptar enfoques de IA descentralizados para un desarrollo más equitativo de la IA.

Estamos en un punto de inflexión crítico para el futuro de la IA. Es necesario un debate mundial impulsado por la ciencia para desarrollar principios y legislación compartidos entre naciones y culturas para dar forma a un futuro en el que la IA contribuya positivamente al logro de todos los ODS.

Las opciones actuales para desarrollar una IA favorable al desarrollo sostenible para 2030 tienen el potencial de desbloquear ventajas y beneficios que podrían ir mucho más allá de los ODS.

Todos los actores a nivel global deben estar representados en este diálogo, para garantizar que nadie se quede atrás, siguiendo la filosofía del los ODS, ya que evitar este diálogo podría dar lugar a un futuro desigual e insostenible.

Ricardo Estévez

Mi verbo favorito es avanzar. Referente en usos innovadores de TIC + Marketing. Bulldozer sostenible y fundador de ecointeligencia

Deja una respuesta

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.