Los cuatro retos éticos de la inteligencia artificial

En los próximos años, el mercado de la inteligencia artificial superará los 52.000 millones de euros

Los cuatro retos éticos de la inteligencia artificial (Foto. Freepik)
Los cuatro retos éticos de la inteligencia artificial (Foto. Freepik)
18 noviembre 2019 | 16:00 h

En sectores como el industrial, el de transportes, de la salud o las finanzas, la presencia de la inteligencia artificial crecerá a un ritmo muy ágil en los próximos años. Así lo concluye la empresa de robótica colaborativa y estructuras inteligentes Airtificial, que calcula que en 2025 el mercado de la inteligencia artificial (IA) alcanzará los 52.700 millones de euros, 9 veces más de lo que se invierte hoy en este sector, donde se mueven casi 6.000 millones de euros.

Ese aumento progresivo del uso de la inteligencia artificial ha llevado a la Comisión Europea a reunir a 52 expertos independientes para debatir unas directrices éticas que habrá que seguir en el desarrollo y el uso de la inteligencia artificial.

Y es que esta nueva forma de conocimiento puede presentar conflictos a los que los expertos creen que la sociedad debe anticiparse. "Todo descubrimiento, nueva creación o nueva capacidad que desarrollamos para generar un nuevo poder o una nueva posibilidad de hacer las cosas conllevan la pregunta de quién hará uso de ellos y qué dirección les queremos dar, porque todo puede utilizarse para generar bienestar o para destruir", ha explicado Miguel Seguró Mendlewicz, profesor colaborador de los Estudios de Artes y Humanidades de la UOC.

Se calcula que en 2025 el mercado de la inteligencia artificial (IA) alcanzará los 52.700 millones de euros, 9 veces más de lo que se invierte hoy en este sector

La atracción que el desarrollo de la inteligencia artificial ejerce en la sociedad ha llevado a los expertos a preguntarse qué es lo que nos resulta tan fascinante de ella. Y la respuesta parece apuntar al anhelo de control. Como ha indicado Seguró, "existe la ilusión de que por medio de la inteligencia artificial tendremos un mayor control de nuestras vidas y de los problemas que nuestras vidas incluyen. Pero eso es solo una cara de la experiencia, porque hay abrazos, sonrisas, silencios… que no hay manera de programar ni de predecir, ya que dependen del contexto y de unas habilidades que no son meramente cuantitativas, sino que exigen un desarrollo personal, una audacia personal y asumir la capacidad de errar".

EVITAR LAS DISCRIMINACIONES

De hecho, el control total no parece posible. La inteligencia artificial usa algoritmos para extraer conclusiones y tomar decisiones. Y todo ese proceso usa datos que, en ocasiones, pueden ser discriminatorios. Fue lo ocurrido con el algoritmo Compas, creado para ayudar a los jueces de Estados Unidos a decidir sobre la libertad provisional. Tras las primeras pruebas se concluyó que se trataba de un algoritmo racista porque usaba datos de departamentos policiales donde la mayoría de los detenidos eran negros, por lo que el algoritmo estableció que el riesgo de ser criminal era mayor entre esas personas.

Un colectivo con muchas probabilidades de ser discriminado en los programas de inteligencia artificial es el de los mayores, que corren el riesgo de ser invisibilizados. Como explican las investigadoras de la UOC Andrea Rosales y Mireia Fernández Ardèvol, "cuando se investigan los usos de los espacios públicos de una ciudad, se analizan los datos de los móviles que tienen el wifi encendido: desde el tiempo que las personas emplean en cruzar una calle por un semáforo hasta el tiempo que necesitan para subir las escaleras del metro. Pero en el análisis de estos estudios no se tienen en cuenta minorías que o bien no tienen wifi en el móvil o bien, si lo tienen, lo llevan siempre apagado".

Los contenidos de ConSalud están elaborados por periodistas especializados en salud y avalados por un comité de expertos de primer nivel. No obstante, recomendamos al lector que cualquier duda relacionada con la salud sea consultada con un profesional del ámbito sanitario.