skip to Main Content

La ética y su importancia en la era de la inteligencia artificial

La inteligencia artificial (IA) está cada vez más presente en acciones cotidianas de nuestro día a día. Lo que hasta hace unos años solo tenía cabida en películas y libros de ciencia ficción, hoy se ve reflejado en sistemas de reconocimiento facial, drones, asistentes virtuales e incluso robots cuidadores, siendo estos ejemplos tan solo una pequeña muestra del gran abanico que engloba a la IA.

El contacto directo entre el ser humano y este tipo de sistemas inteligentes ha incrementado la necesidad de trabajar en la implantación de códigos éticos que, eviten que los dispositivos puedan llegar a convertirse en una amenaza para las personas. Como prueba de ello, en el año 2018, la Comisión Europea creó el Grupo Independiente de Expertos de Alto Nivel Sobre Inteligencia Artificial, quienes hace unos meses publicaban el informe Directrices Éticas para una IA fiable. Por lo que, siguiendo las líneas expuestas en el documento, para que una IA sea clasificada como tal, ésta debe cumplir tres requisitos indispensables: ser lícita, ética y robusta. Ahora bien, pese a la obligación de los sistemas a obedecer las leyes, los expertos destacan que en muchas ocasiones los avances tecnológicos suelen ir un paso por delante de los cambios legislativos, y como consecuencia, este acatamiento de leyes puede ser contrario a la normativa ética. A este cumplimiento legal y ético, también se añade la necesidad de que los sistemas actúen de manera segura desde una perspectiva técnica y social, a fin de evitar cualquier tipo de daño involuntario contra las personas. Sin embargo, pese a que la inteligencia artificial ha logrado mejorar enormemente la calidad de vida de muchas personas, su estado todavía incipiente impide garantizar en su totalidad, el cumplimiento de las tres máximas señaladas por los expertos.

La integración de estos sistemas inteligentes en nuestras vidas ha traído consigo la preocupación por parte de la sociedad, en torno a que determinadas cuestiones morales queden en manos de la IA. Guillem Alenyà, investigador del Instituto de Robótica Industrial del CSIC, incidía en esta cuestión, durante la celebración del debate La inteligencia artificial para hacer el bien, en donde señalaba la importancia de trabajar conjuntamente, en lugar de dejar caer todo el peso sobre la ciencia. “Necesitamos no creernos que la tecnología es absolutamente la fuente de verdad, sino que es una herramienta para ayudarnos a nosotros a tomar las decisiones”, apuntaba. El investigador también resaltó la dificultad de dotar de inteligencia humana a estos sistemas: “Programar sentido común es muy difícil, pero para eso tenemos a las personas.”

¿Algoritmos discriminatorios?

Sin ser apenas conscientes de ello, los seres humanos tomamos decisiones muchas veces condicionadas por nuestros propios prejuicios. Con el fin de evitar comportamientos sesgados, desde hace años se han comenzado a poner en práctica sistemas de inteligencia artificial basados en algoritmos. Sin embargo, diferentes estudios realizados revelan como en muchas ocasiones los resultados obtenidos se alejan en gran medida de esa neutralidad.

El problema básicamente reside en el hecho de que los algoritmos se alimentan de los datos proporcionados por los humanos, por lo que, a día de hoy resulta prácticamente imposible que éstos sean íntegramente imparciales. Por poner un ejemplo, si un algoritmo es entrenado con datos de hace décadas, en los que se relaciona principalmente la figura de la mujer con el hogar, el sistema inteligente tenderá a seguir creando esta conexión. Lo mismo sucedería con técnicas de reconocimiento facial, en las que, debido a una escasa variedad en la muestra, los sistemas presentan dificultades a la hora de reconocer a determinadas personas por su etnia.

Quizá una de las primeras medidas que se debería adoptar para solucionar esta problemática, resida en la creación de una normativa que consiga regular la discriminación a las personas por cuestiones sociales, étnicas o de género.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Back To Top