Campus Virtual
Contacto

¿Qué es la ética de la IA?

En este artículo te contamos a fondo qué es eso de la ética de la IA, cómo funciona y cómo desarrollar una IA más ética
ética-de-la-IA, ¿Qué es la ética de la IA?

    El uso de la inteligencia artificial ofrece un amplio abanico de posibilidades pero también plantea ciertos conflictos o dilemas que pueden afectar a la integridad de las personas y poner en riesgo su igualdad o derechos. El sesgo introducido por la IA puede llegar a desvirtuar su trabajo y plantear cuestiones éticas. En este artículo te contamos a fondo qué es eso de la ética de la IA, cómo funciona, cómo desarrollar una IA más ética y todo lo que necesitas saber sobre el tema. Toma nota.

    Ética en la IA. ¿Qué es?

    El reciente e imparable uso y desarrollo de la IA conlleva muchos beneficios pero también bastantes riesgos y desafíos, medioambientales, sociales e incluso éticos.

    La inteligencia artificial puede ser una moneda de doble cara. Es innegable su amplio potencial para que las organizaciones mejoren su eficiencia y productividad pero también conlleva muchos desafíos legales y éticos que no deben ser pasados por alto. Para prevenir posibles riesgos es importante poner sobre la mesa de la sociedad y de cualquier empresa y organización la cuestión de la ética en la inteligencia artificial.

    El mal uso de la inteligencia artificial puede generar desigualdades o discriminar a ciertas personas por determinados sesgos que la IA pueda tener. Estos sesgos se pueden dar en las múltiples aplicaciones que la IA tiene actualmente en nuestras vidas diarias, desde los asistentes de voz a las búsquedas predictivas en Google, las recomendaciones de productos en tiendas online, los chatbots, la domótica o los mapas.

    Los sistemas de inteligencia artificial abarcan aspectos como el razonamiento, el aprendizaje, la percepción, la planificación, la predicción o el control.

    Para tener en cuenta la ética de la inteligencia artificial a la hora del desarrollo de las diferentes aplicaciones de IA es importante considerar el diseño del algoritmo, el uso y recopilación de los datos y cómo se aplican los sistemas de IA en diferentes contextos

    ¿Sabes cual es tu vocación?

    Este test sí. ¡Revela tus cartas!

    ¡Adivínalo gratis!

    ¿Cuáles son los hitos de la inteligencia artificial?

    Los hitos alcanzados por la inteligencia artificial en diferentes sectores de la actividad humana, desde la sanidad, al transporte o los servicios de atención al cliente han transformado la vida de las personas a la vez que plantean ciertos desafíos y dudas.

    • En el caso de la sanidad la IA se emplea para diagnóstico de enfermedades, para personalizar tratamientos o para mejorar la atención médica. Estos avances pueden chocar con temas como la privacidad de los pacientes, la igualdad en el acceso a los servicios y la responsabilidad humana por decisiones que tome el algoritmo, en lugar de personas.
    • En el caso del transporte, los coches autónomos diseñados con IA pueden mejorar la eficiencia y seguridad vial. Por la contra, pueden surgir cuestiones éticas como responsabilidad en caso de accidentes, toma de decisiones en situaciones de riesgo o privacidad en el uso de datos de ubicación.
    • En la atención al cliente los chatbots y otras herramientas de IA son ya capaces de ofrecer respuestas personalizadas y ágiles para consultas de clientes. Aquí pueden surgir dudas sobre la equidad en el tratamiento de datos de los clientes, la privacidad, la transparencia y la necesidad de una atención humana para preguntas, operaciones o tareas más complejas o personales.
    • En cuanto al comportamiento humano, la IA ya es capaz de predecir comportamientos en diferentes áreas como marketing o política. Aquí entran en juego la preocupación por el sesgo del algoritmo que puede llegar a manipular decisiones tanto individuales como colectivas, además de otros temas como los relativos a la privacidad.

    ¿Por qué es importante la ética en la IA? Regulación

    La regulación de un marco para aplicar la ética en el mundo de la IA es importante en el momento actual tanto para individuos como para empresas. Garantizar la equidad, la información veraz o la igualdad es un reto clave frente a los peligros que puede entrañar la IA que contribuyan a la degradación del planeta, amenacen derechos humanos o reproduzcan prejuicios.

    Para luchar contra estos posibles riesgos la UE ha definido el pasado 2024 el primer marco legislativo a nivel mundial para la IA. En su propuesta alerta que el uso que la IA por sus características (como la opacidad, la complejidad, la dependencia de datos o el comportamiento autónomo) puede tener repercusiones negativas en los derechos fundamentales.

    Previamente todos los Estados miembros de la UNESCO aprobaron la recomendación sobre la ética de la inteligencia artificial en 2021. Destacan las implicaciones éticas de la inteligencia artificial por su impacto “en la adopción de decisiones, el empleo y el trabajo, la interacción social, la atención de la salud, la educación, los medios de comunicación, el acceso a la información, la brecha digital, la protección del consumidor y de los datos personales, el medio ambiente, la democracia, el estado de derecho, la seguridad y el mantenimiento del orden, el doble uso y los derechos humanos y las libertades fundamentales, incluidas la libertad de expresión, la privacidad y la no discriminación”.
    La recomendación de la UNESCO alerta sobre los desafíos éticos por el potencial e los algoritmos de la IA “para reproducir y reforzar los sesgos existentes, lo que puede exacerbar las formas ya existentes de discriminación, los prejuicios y los estereotipos”.

    Con este acuerdo la UNESCO insta a que los países adopten marcos regulatorios para garantizar que las tecnologías de la IA se pongan al servicio de los ciudadanos.

    A este respecto, la Ley 15/2022 integral para la igualdad de trato y la no discriminación es la primera aproximación normativa en el ámbito español sobre el uso de la inteligencia artificial por las administraciones públicas y las empresas. Según esta ley, las administraciones públicas “favorecerán la puesta en marcha de mecanismos para que los algoritmos involucrados en la toma de decisiones que se utilicen en las administraciones públicas tengan en cuenta criterios de minimización de sesgos, transparencia y rendición de cuentas, siempre que sea factible técnicamente”. Del mismo modo, administraciones y empresas promoverán el uso de una inteligencia artificial “ética, confiable y respetuosa con los derechos fundamentales”.

    La creación de una Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) el pasado año 2024 que se encarga de supervisar el cumplimiento de la regulación europea en materia de inteligencia artificial ha sido un paso importante.

    Principios éticos que deben guiar la IA

    Para que el uso de la IA minimice riesgos se deben establecer ciertos principios que guíen su implementación y desarrollo y que así la tecnología pueda contribuir a una sociedad mejor. Vamos a ver cuáles son esos principios básicos.

    Transparencia.

    Con este principio se pretende que todas las decisiones y procesos de la IA sean comprensibles y auditables. Por ello es vital informar a los usuarios de cómo interactúan con las aplicaciones de IA y ofrecer explicaciones claras de cómo y por qué la lA toma las decisiones que toma. Conocer los algoritmos que se crean y poder explicar su funcionamiento es fundamental para ofrecer explicaciones y transparencia y dotar de ética la inteligencia artificial a todas las personas que la usen.

    Seguridad y privacidad.

    Los sistemas inteligentes no deben corromper la privacidad de ninguna persona y deben funcionar de forma segura. Es importante que los sistemas basados en IA no decidan sin supervisión humana previa ya que las decisiones pueden ser perjudiciales o no respetar sus derechos o su privacidad. Toda IA debe garantizar que los datos personales se tratan con cuidado, estén protegidos frente a terceros y que se respete la legislación sobre privacidad.

    Inclusión.

    La IA debe ser accesible para todos, incluidas las comunidades marginadas o con menos recursos. Sus beneficios deben distribuirse de forma equitativa y velar para que los sistemas de IA sean justos y salvaguarden la dignidad humana y los derechos de las personas. Ha de evitar sesgos injustos y discriminar por razones de raza, género, religión, edad, discapacidad u otras características. Los algoritmos deben diseñarse y probarse para garantizar resultados equitativos. Por ello es vital asegurarse de no emplear datos sesgados y controlar el algoritmo y la posible discriminación con métricas y supervisión humana.

    Sostenibilidad.

    Es importante que el uso de la IA no conlleve riesgos o daños para el entorno y para el medio ambiente. Para ello debemos minimizar el impacto ambiental del desarrollo y uso de IA. Es importante que los sistemas sean energéticamente eficientes y estén optimizados para consumir menos recursos a la hora de desarrollar su trabajo en los centros de datos.

    Beneficio social.

    La IA debe promover el bienestar humano y contribuir positivamente a la sociedad evitando su uso con fines perjudiciales, como la creación de armas autónomas.
    Autonomía humana.
    La IA no debe reemplazar o restringir la capacidad de decisión de los humanos sino que debe empoderarlos. Las decisiones importantes deben ser siempre supervisadas por el criterio humano.

    Actores implicados en la ética de la IA

    En el ecosistema de la ética aplicada la inteligencia artificial existen diferentes agentes cuya participación es importante para abordar desafíos éticos propios del desarrollo de la IA. Entre estos actores están:

    • Desarrolladores de IA. Son los ingenieros y científicos de datos que diseñan y construyen sistemas de inteligencia artificial. Su papel es clave al tener que incluir principios éticos en el desarrollo de algoritmos y modelos
    • Investigadores en ética de la IA. Son expertos en ética que analizan las implicaciones éticas dentro del campo de la IA. Su papel es importante para establecer buenas prácticas hacia un desarrollo ético de la tecnología y también para analizar el impacto social de la misma.
    • Reguladores y responsables políticos. Los gobiernos y organizaciones tienen la responsabilidad de establecer marcos legales y normativos que promuevan el uso ético de la IA y protejan los derechos y la privacidad de las personas. Es el caso de la UE y su recién aprobada Ley de IA Europea marca las líneas rojas del uso ético de la IA.
    • Industria y empresas. Las empresas que desarrollan y utilizan sistemas de IA deben incluir cuestiones éticas en sus prácticas comerciales. Son responsables de garantizar la transparencia, la equidad y la responsabilidad en el diseño y la implementación de la tecnología.
    • Organizaciones de la sociedad civil. Son grupos de defensa de los derechos civiles, organizaciones no gubernamentales y grupos de la sociedad civil. Su papel es vital al reclamar prácticas éticas en el desarrollo y el uso de la IA y promover la participación pública en estos temas.
    • Mundo académico. Los académicos y las instituciones de investigación pueden ayudar al avance en el conocimiento sobre la ética de la IA. A través de esa investigación y colaboración con otros actores desde la base educativa y la divulgación científica.
    • Usuarios y ciudadanos. Los usuarios finales de la IA y la sociedad en general también son actores importantes. Ellos pueden influir en el desarrollo y la implementación de la tecnología y formulación de políticas sobre IA en función de sus necesidades y preocupaciones.

    Sesgos y ética en la IA

    En el contexto de la ética en la inteligencia artificial seguro que has oído hablar de un término llamado sesgo de IA, también conocido como sesgo de machine learning o sesgo de algoritmo.

    Se trata de resultados de la IA que tienen diferentes sesgos atribuidos a los humanos y que distorsionan los datos de entrenamiento originales o el algoritmo de la IA. Estos resultados pueden ser perjudiciales y afectar a cuestiones como igualdad, diversidad o derechos humanos.

    Estos sesgos pueden darse en diferentes ámbitos. Por ejemplo en el caso de la sanidad, se ha observado que los sistemas de diagnóstico asistido por ordenador (CAD) dan resultados de precisión más bajos para los pacientes afroamericanos que para los blancos.

    En el ámbito laboral también sucede y así las herramientas de IA que ayudan a seleccionar candidatos con la información solicitada y las respuestas descartadas pueden dar lugar a resultados desproporcionados entre los grupos.

    Midjourney realizó un estudio sobre la generación de arte por IA de imágenes de personas en profesiones especializadas. Los resultados mostraban tanto a personas jóvenes como mayores, pero las personas mayores eran siempre hombres, lo que refuerza el sesgo de género del papel de la mujer en el lugar de trabajo..

    Conseguir que los programas de IA se mantengan libres de prejuicios no es una labor sencilla pero podemos llevar a cabo ciertas tareas encaminadas a ello. Estas son las principales:

    • Seleccionar un modelo de aprendizaje correcto. El equipo encargado de supervisar el modelo debe ser diverso y formado para evitar prejuicios y sesgos. Es necesario incorporar herramientas de prevención de sesgos en las redes neuronales para que aprendan a reconocer lo que está sesgado.
    • Entrenar con datos correctos. Las datos introducidos en la IA deben ser reales y completos para reproducir la demografía real del grupo que se considere.
    • Tener un equipo equilibrado. El equipo al mando debe ser lo más equilibrado posible desde diferentes ángulos como racial, educativo, económico etc para evitar prejuicios.
    • Realizar procesos de datos conscientes. El procesamiento de datos puede introducir sesgos en cualquier fase tanto antes, como durante o después por lo que debemos estar atentos para evitarlos.
    • Monitoreo continuo: Realizar supervsión y pruebas continuas con pruebas reales lleva a detectar sesgos y evitar daños. Una organización debe contar con una equipo independiente para llevar a cabo esta evaluación.

    ¿Cómo garantizar la ética en la IA?

    Los casos donde la IA ha tenido un impacto negativo en organizaciones con consecuencias como la aplicación de sesgos discriminatorios o la vulneración de derechos humanos hacen necesario un cambio hacia un modelo más garantista.

    Las compañías cada vez son más conscientes de entender la necesidad de comités éticos internos que definan pautas en el uso de la IA y de la ética de la IA aplicada a los procesos de cada empresa u organización.

    Para establecer esto es importante promover la concienciación ética y la formación de todos las personas de la empresa. Para ello es vital saber cómo funciona la IA y que se tomen medidas con responsabilidad.

    Una organización debe poder medir la responsabilidad del uso de la IA en cada aplicación para que no cause daños a terceros o tenga un impacto negativo. Para lograrlo se puede aplicar la metodología conocida como ‘inteligencia artificial ética desde el diseño’. Se encarga de implementar este uso responsable de la IA en todas las áreas de la empresa, establecer principios éticos fundamentales , ofrecer formación y concienciación a los empleados y aplicar cuestionarios para vigilar el cumplimiento de la normativa y medir su eficacia.

    Consumo de electricidad en la IA. Más allá de la ética

    Al hablar de ética de la inteligencia artificial no podemos olvidar el consumo de recursos por parte de la IA y el gasto de energía y no solo de agua que consumen este tipo de modelos. Este consumo excesivo conlleva implicaciones éticas derivadas de las amenazas al medio ambiente y a la sostenibilidad de la tierra.

    Si echamos un vistazo al gasto energético, el consumo eléctrico de la inteligencia artificial varía ampliamente dependiendo de la escala y el tipo de operación que se realice. Para entrenar modelos de IA, el consumo es especialmente elevado en modelos de aprendizaje profundo. Por ejemplo, el modelo de lenguaje avanzado CPT-3 requiere entrenar con miles de GPUs durante semanas, lo que consume cantidades significativas de electricidad. En concreto entre entre 1 y 3 gigavatios-hora (GWh) de energía eléctrica. Esto equivale al consumo eléctrico promedio de unos 300 hogares estadounidenses durante un año. Según estimaciones recientes, entrenar un solo modelo puede emitir hasta cientos de toneladas de CO2, equiparable a las emisiones anuales de varios automóviles.

    Entrenar modelos más pequeños de IA no necesita tantos recursos, por ejemplo un modelo de computadora normal puede consumir entre 1 y 10 MWh.

    Las operaciones de inferencia en la nube pueden consumir entre 0.1 y 1 kWh por cada mil solicitudes. Los sistemas de IA para tareas en tiempo real consumen menos energía en comparación con el entrenamiento.

    Según datos recientes de 2023 se calcula que los centros de datos que soporten sistemas de IA consumen alrededor del 1-2% de la electricidad mundial, muchos destinados a aplicaciones de IA. Informes recientes señalan que el consumo global de electricidad para entrenar modelos de IA equivale a entre 200 y 250 TWh (teravatios-hora) por año, aproximadamente el 0.8-1% del consumo global de electricidad.

    Para construir un futuro más sostenible y respetuoso donde prime la ética de la IA podemos apostar por métodos como:

    • La refrigeración híbrida que combina diferentes métodos de refrigeración como aire y líquido para que el proceso sea más eficiente y flexible.
    • La IA y la automatización. El uso de IA para gestionar y monitorear sistemas de refrigeración sirve para ajustar los parámetros y maximizar la eficiencia energética.
    • La sostenibilidad. Se trata de enfocarse en soluciones de refrigeración que minimicen el impacto ambiental con energías renovables y tecnológicas de bajo consumo.

    Ahora ya sabes qué es la ética de la IA, qué implicaciones tiene y cómo se puede desarrollar una inteligencia artificial más respetuosa con la sociedad y las personas.

    Si te interesa realmente conocer todos los entresijos de la ética de la IA y del funcionamiento de las aplicaciones de este ámbito has de comenzar formándote con un curso de especialización en inteligencia artificial.

    Fuentes y recursos de información

    Comprobamos el contenido y la veracidad del conocimiento presentado en este artículo a través de nuestro proceso editoria y de verificación de la información, para asegurarnos de que sea preciso y confiable

    Conoce el proceso editorial
    ¿Sabes cual es tu vocación?

    Este test sí. ¡Revela tus cartas!

    Img_1
    ¡Adivínalo gratis!
    INFÓRMATE GRATIS SOBRE
    Recibe información gratis sobre Curso de especialización en Inteligencia Artificial
    No pierdas la oportunidad de formarte en Campus Training
    • Por favor, escribe un número entre 0 y 90.

    Artículos relacionados

    Cursos relacionados

    Curso de especialización en Inteligencia Artificial
    Curso de

    especialización en Inteligencia Artificial

    Ver formación
    WhatsApp