16 minutos
El uso de la inteligencia artificial ofrece un amplio abanico de posibilidades pero también plantea ciertos conflictos o dilemas que pueden afectar a la integridad de las personas y poner en riesgo su igualdad o derechos. El sesgo introducido por la IA puede llegar a desvirtuar su trabajo y plantear cuestiones éticas. En este artículo te contamos a fondo qué es eso de la ética de la IA, cómo funciona, cómo desarrollar una IA más ética y todo lo que necesitas saber sobre el tema. Toma nota.
El reciente e imparable uso y desarrollo de la IA conlleva muchos beneficios pero también bastantes riesgos y desafíos, medioambientales, sociales e incluso éticos.
La inteligencia artificial puede ser una moneda de doble cara. Es innegable su amplio potencial para que las organizaciones mejoren su eficiencia y productividad pero también conlleva muchos desafíos legales y éticos que no deben ser pasados por alto. Para prevenir posibles riesgos es importante poner sobre la mesa de la sociedad y de cualquier empresa y organización la cuestión de la ética en la inteligencia artificial.
El mal uso de la inteligencia artificial puede generar desigualdades o discriminar a ciertas personas por determinados sesgos que la IA pueda tener. Estos sesgos se pueden dar en las múltiples aplicaciones que la IA tiene actualmente en nuestras vidas diarias, desde los asistentes de voz a las búsquedas predictivas en Google, las recomendaciones de productos en tiendas online, los chatbots, la domótica o los mapas.
Los sistemas de inteligencia artificial abarcan aspectos como el razonamiento, el aprendizaje, la percepción, la planificación, la predicción o el control.
Para tener en cuenta la ética de la inteligencia artificial a la hora del desarrollo de las diferentes aplicaciones de IA es importante considerar el diseño del algoritmo, el uso y recopilación de los datos y cómo se aplican los sistemas de IA en diferentes contextos
Los hitos alcanzados por la inteligencia artificial en diferentes sectores de la actividad humana, desde la sanidad, al transporte o los servicios de atención al cliente han transformado la vida de las personas a la vez que plantean ciertos desafíos y dudas.
La regulación de un marco para aplicar la ética en el mundo de la IA es importante en el momento actual tanto para individuos como para empresas. Garantizar la equidad, la información veraz o la igualdad es un reto clave frente a los peligros que puede entrañar la IA que contribuyan a la degradación del planeta, amenacen derechos humanos o reproduzcan prejuicios.
Para luchar contra estos posibles riesgos la UE ha definido el pasado 2024 el primer marco legislativo a nivel mundial para la IA. En su propuesta alerta que el uso que la IA por sus características (como la opacidad, la complejidad, la dependencia de datos o el comportamiento autónomo) puede tener repercusiones negativas en los derechos fundamentales.
Previamente todos los Estados miembros de la UNESCO aprobaron la recomendación sobre la ética de la inteligencia artificial en 2021. Destacan las implicaciones éticas de la inteligencia artificial por su impacto “en la adopción de decisiones, el empleo y el trabajo, la interacción social, la atención de la salud, la educación, los medios de comunicación, el acceso a la información, la brecha digital, la protección del consumidor y de los datos personales, el medio ambiente, la democracia, el estado de derecho, la seguridad y el mantenimiento del orden, el doble uso y los derechos humanos y las libertades fundamentales, incluidas la libertad de expresión, la privacidad y la no discriminación”.
La recomendación de la UNESCO alerta sobre los desafíos éticos por el potencial e los algoritmos de la IA “para reproducir y reforzar los sesgos existentes, lo que puede exacerbar las formas ya existentes de discriminación, los prejuicios y los estereotipos”.
Con este acuerdo la UNESCO insta a que los países adopten marcos regulatorios para garantizar que las tecnologías de la IA se pongan al servicio de los ciudadanos.
A este respecto, la Ley 15/2022 integral para la igualdad de trato y la no discriminación es la primera aproximación normativa en el ámbito español sobre el uso de la inteligencia artificial por las administraciones públicas y las empresas. Según esta ley, las administraciones públicas “favorecerán la puesta en marcha de mecanismos para que los algoritmos involucrados en la toma de decisiones que se utilicen en las administraciones públicas tengan en cuenta criterios de minimización de sesgos, transparencia y rendición de cuentas, siempre que sea factible técnicamente”. Del mismo modo, administraciones y empresas promoverán el uso de una inteligencia artificial “ética, confiable y respetuosa con los derechos fundamentales”.
La creación de una Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) el pasado año 2024 que se encarga de supervisar el cumplimiento de la regulación europea en materia de inteligencia artificial ha sido un paso importante.
Para que el uso de la IA minimice riesgos se deben establecer ciertos principios que guíen su implementación y desarrollo y que así la tecnología pueda contribuir a una sociedad mejor. Vamos a ver cuáles son esos principios básicos.
Con este principio se pretende que todas las decisiones y procesos de la IA sean comprensibles y auditables. Por ello es vital informar a los usuarios de cómo interactúan con las aplicaciones de IA y ofrecer explicaciones claras de cómo y por qué la lA toma las decisiones que toma. Conocer los algoritmos que se crean y poder explicar su funcionamiento es fundamental para ofrecer explicaciones y transparencia y dotar de ética la inteligencia artificial a todas las personas que la usen.
Los sistemas inteligentes no deben corromper la privacidad de ninguna persona y deben funcionar de forma segura. Es importante que los sistemas basados en IA no decidan sin supervisión humana previa ya que las decisiones pueden ser perjudiciales o no respetar sus derechos o su privacidad. Toda IA debe garantizar que los datos personales se tratan con cuidado, estén protegidos frente a terceros y que se respete la legislación sobre privacidad.
La IA debe ser accesible para todos, incluidas las comunidades marginadas o con menos recursos. Sus beneficios deben distribuirse de forma equitativa y velar para que los sistemas de IA sean justos y salvaguarden la dignidad humana y los derechos de las personas. Ha de evitar sesgos injustos y discriminar por razones de raza, género, religión, edad, discapacidad u otras características. Los algoritmos deben diseñarse y probarse para garantizar resultados equitativos. Por ello es vital asegurarse de no emplear datos sesgados y controlar el algoritmo y la posible discriminación con métricas y supervisión humana.
Es importante que el uso de la IA no conlleve riesgos o daños para el entorno y para el medio ambiente. Para ello debemos minimizar el impacto ambiental del desarrollo y uso de IA. Es importante que los sistemas sean energéticamente eficientes y estén optimizados para consumir menos recursos a la hora de desarrollar su trabajo en los centros de datos.
La IA debe promover el bienestar humano y contribuir positivamente a la sociedad evitando su uso con fines perjudiciales, como la creación de armas autónomas.
Autonomía humana.
La IA no debe reemplazar o restringir la capacidad de decisión de los humanos sino que debe empoderarlos. Las decisiones importantes deben ser siempre supervisadas por el criterio humano.
En el ecosistema de la ética aplicada la inteligencia artificial existen diferentes agentes cuya participación es importante para abordar desafíos éticos propios del desarrollo de la IA. Entre estos actores están:
En el contexto de la ética en la inteligencia artificial seguro que has oído hablar de un término llamado sesgo de IA, también conocido como sesgo de machine learning o sesgo de algoritmo.
Se trata de resultados de la IA que tienen diferentes sesgos atribuidos a los humanos y que distorsionan los datos de entrenamiento originales o el algoritmo de la IA. Estos resultados pueden ser perjudiciales y afectar a cuestiones como igualdad, diversidad o derechos humanos.
Estos sesgos pueden darse en diferentes ámbitos. Por ejemplo en el caso de la sanidad, se ha observado que los sistemas de diagnóstico asistido por ordenador (CAD) dan resultados de precisión más bajos para los pacientes afroamericanos que para los blancos.
En el ámbito laboral también sucede y así las herramientas de IA que ayudan a seleccionar candidatos con la información solicitada y las respuestas descartadas pueden dar lugar a resultados desproporcionados entre los grupos.
Midjourney realizó un estudio sobre la generación de arte por IA de imágenes de personas en profesiones especializadas. Los resultados mostraban tanto a personas jóvenes como mayores, pero las personas mayores eran siempre hombres, lo que refuerza el sesgo de género del papel de la mujer en el lugar de trabajo..
Conseguir que los programas de IA se mantengan libres de prejuicios no es una labor sencilla pero podemos llevar a cabo ciertas tareas encaminadas a ello. Estas son las principales:
Los casos donde la IA ha tenido un impacto negativo en organizaciones con consecuencias como la aplicación de sesgos discriminatorios o la vulneración de derechos humanos hacen necesario un cambio hacia un modelo más garantista.
Las compañías cada vez son más conscientes de entender la necesidad de comités éticos internos que definan pautas en el uso de la IA y de la ética de la IA aplicada a los procesos de cada empresa u organización.
Para establecer esto es importante promover la concienciación ética y la formación de todos las personas de la empresa. Para ello es vital saber cómo funciona la IA y que se tomen medidas con responsabilidad.
Una organización debe poder medir la responsabilidad del uso de la IA en cada aplicación para que no cause daños a terceros o tenga un impacto negativo. Para lograrlo se puede aplicar la metodología conocida como ‘inteligencia artificial ética desde el diseño’. Se encarga de implementar este uso responsable de la IA en todas las áreas de la empresa, establecer principios éticos fundamentales , ofrecer formación y concienciación a los empleados y aplicar cuestionarios para vigilar el cumplimiento de la normativa y medir su eficacia.
Al hablar de ética de la inteligencia artificial no podemos olvidar el consumo de recursos por parte de la IA y el gasto de energía y no solo de agua que consumen este tipo de modelos. Este consumo excesivo conlleva implicaciones éticas derivadas de las amenazas al medio ambiente y a la sostenibilidad de la tierra.
Si echamos un vistazo al gasto energético, el consumo eléctrico de la inteligencia artificial varía ampliamente dependiendo de la escala y el tipo de operación que se realice. Para entrenar modelos de IA, el consumo es especialmente elevado en modelos de aprendizaje profundo. Por ejemplo, el modelo de lenguaje avanzado CPT-3 requiere entrenar con miles de GPUs durante semanas, lo que consume cantidades significativas de electricidad. En concreto entre entre 1 y 3 gigavatios-hora (GWh) de energía eléctrica. Esto equivale al consumo eléctrico promedio de unos 300 hogares estadounidenses durante un año. Según estimaciones recientes, entrenar un solo modelo puede emitir hasta cientos de toneladas de CO2, equiparable a las emisiones anuales de varios automóviles.
Entrenar modelos más pequeños de IA no necesita tantos recursos, por ejemplo un modelo de computadora normal puede consumir entre 1 y 10 MWh.
Las operaciones de inferencia en la nube pueden consumir entre 0.1 y 1 kWh por cada mil solicitudes. Los sistemas de IA para tareas en tiempo real consumen menos energía en comparación con el entrenamiento.
Según datos recientes de 2023 se calcula que los centros de datos que soporten sistemas de IA consumen alrededor del 1-2% de la electricidad mundial, muchos destinados a aplicaciones de IA. Informes recientes señalan que el consumo global de electricidad para entrenar modelos de IA equivale a entre 200 y 250 TWh (teravatios-hora) por año, aproximadamente el 0.8-1% del consumo global de electricidad.
Para construir un futuro más sostenible y respetuoso donde prime la ética de la IA podemos apostar por métodos como:
Ahora ya sabes qué es la ética de la IA, qué implicaciones tiene y cómo se puede desarrollar una inteligencia artificial más respetuosa con la sociedad y las personas.
Si te interesa realmente conocer todos los entresijos de la ética de la IA y del funcionamiento de las aplicaciones de este ámbito has de comenzar formándote con un curso de especialización en inteligencia artificial.
Comprobamos el contenido y la veracidad del conocimiento presentado en este artículo a través de nuestro proceso editoria y de verificación de la información, para asegurarnos de que sea preciso y confiable
Conoce el proceso editorialBibliografía