Póngase en contacto con nosotros

Armonizar la innovación y la regulación de la inteligencia artificial

Las innovaciones disruptivas están a la orden del día con la IA. Es la vía de desarrollo futuro. Por eso es importante que los responsables de la toma de decisiones examinen detenidamente la ética de la inteligencia artificial en este momento. Una guía para la acción de Saara Hyvönen.

Consideraciones básicas sobre la ética en la IA y sus clases de riesgo

En el debate sobre la comportamiento ético Con la inteligencia artificial, es crucial considerar tanto la intención (= para qué se utiliza la IA) como la realización y aplicación de la tecnología (= cómo se desarrolla la IA). El tipo de IA utilizada, ya sean redes neuronales de aprendizaje profundo o simple lógica basada en reglas, es menos importante que el uso de la IA en sí.

La regulación debe centrarse en cuestiones de definición en torno a usos aceptables, como el desarrollo de mejores vacunas, y usos inaceptables, como el uso de medios generados por IA para manipular sutilmente a las personas.

La próxima Ley de Inteligencia Artificial de la UE abordará en detalle qué aplicaciones no están permitidas y cuáles se consideran especialmente arriesgadas. Se definen varias clases de riesgo, cada una de ellas con requisitos diferentes. Las aplicaciones de IA que contradigan la ética de los principios de la UE y supongan un riesgo inaceptable se prohibirán por completo.

 

Distorsión de datos, igualdad de oportunidades y transparencia

En el desarrollo de Soluciones de IA y su aplicación, debemos analizar primero qué aspectos éticos y morales hay que tener en cuenta. Esto incluye la cuestión de cómo podemos hacer frente a posibles "sesgos de datos" y garantizar la igualdad de oportunidades, por ejemplo. Esto también significa que hay que identificar y tener en cuenta posibles escollos, como la falta de perspectivas.

Aunque el tipo de IA es menos relevante en cuanto al "qué", sí desempeña un papel en el enfoque ("cómo"). Las consideraciones de transparencia son esenciales para que la gente entienda lo que puede esperar de la IA con la que está tratando. Esto es especialmente importante en ámbitos de alto riesgo, como la aplicación de la ley o la asistencia sanitaria, como se refleja en la Ley de IA.

 

Ética de la IA y la IA de propósito general: fines previstos y no previstos

No podemos separar los debates sobre la intención y el desarrollo, es decir, sobre el porqué y el cómo de la IA. Los últimos avances en el campo de la "IA de propósito general (GPAI)".

Por GPAI se entiende un sistema de IA capaz de realizar funciones de propósito general, como reconocimiento de imágenes y voz, generación de audio y vídeo, reconocimiento de patrones, respuesta a preguntas, traducción, etc.

Puede perseguir varios fines, tanto intencionados como no intencionados. En particular, hemos observado recientemente muchas aplicaciones que utilizan herramientas de IA generativa como ChatGPT o Midjourney. En este sentido, necesitamos más transparencia sobre el funcionamiento y el uso de estos modelos.

Por un lado, esto incluye la transparencia sobre los propios modelos básicos. Los desarrolladores y las autoridades reguladoras necesitan esta transparencia para poder evaluar adecuadamente el uso y los riesgos de la IA. Por otro lado, esto incluye la transparencia sobre cómo se utilizan. Esto es importante para que los usuarios sepan qué riesgos corren y cómo deben evaluarse los resultados.

 

Potencial de la IA industrial para la economía y la industria manufacturera

La inteligencia artificial tiene un enorme potencial en diversos sectores económicos. Estos van desde el desarrollo de nuevos medicamentos a enzimas controladas por IA para descomponer residuos plásticos y transporte autónomo de camiones de un centro a otro. La IA generativa (capaz de generar texto o imágenes a demanda) ha extendido su impacto a nuevos ámbitos, como la creatividad.

Aunque todavía estamos descubriendo el potencial de la IA industrial, ya existen aplicaciones concretas para la IA generativa, por ejemplo para aumentar la productividad mediante el uso de IA asistencial y para permitir interacciones hiperpersonalizadas.

Cuando hablamos de fabricación en particular, es fácil enumerar los usos potenciales de la IA, por ejemplo en el ámbito de las fábricas inteligentes. Puede mejorar la eficiencia operativa y optimizar las cadenas de suministro, como los procesos de almacén y personal.

Sin embargo, la velocidad a la que se introducen actualmente las nuevas tecnologías y paradigmas hace extremadamente difícil definir un valor específico para la economía o la industria manufacturera en general.

 

Protección contra los peligros potenciales de la IA: Ética e IA en diálogo

Actualmente estamos experimentando una enorme aceleración de la transformación de la IA mediante la introducción de nuevas tecnologías de IA. Esto significa que ahora mismo tenemos que dar prioridad a la identificación y mitigación de Riesgos prestar especial atención a este aspecto. Hay tres niveles en particular que deben tenerse en cuenta:

  1. La garantía de la equidad: En primer lugar, en el contexto de los resultados de la IA, tenemos que asegurarnos de que los sistemas de IA no discriminen a grupos de personas ni aprendan de los prejuicios humanos. Por el contrario, es importante medir y mitigar los posibles sesgos. En segundo lugar, también hay que garantizar la moralidad y la equidad con respecto a la disponibilidad de soluciones de IA: Debe garantizarse que los beneficios sean accesibles para todos y no solo para la parte de la población con conocimientos digitales.
  2. Ética de la IA y alfabetización mediática: La IA cambiará nuestra forma de utilizar los servicios y de hacer nuestro trabajo. Tenemos que concienciar a la opinión pública sobre cómo funcionan estos nuevos modelos de IA y a qué hay que prestar atención. La gente debería ser capaz de "leer" los resultados de los modelos generativos, por ejemplo, y entender que la foto del Papa con el abrigo elegante podría ser falsa, y que todas las respuestas dadas por herramientas de IA como ChatGPT no se corresponden necesariamente con los hechos. En resumen, se necesita una nueva alfabetización en IA para promover un uso responsable de la IA, minimizando los riesgos potenciales y aprovechando al mismo tiempo los beneficios de la tecnología de IA.
  3. Marcando el rumbo del futuro de la IA: Quizá el tema más importante sea la cuestión de hacia dónde queremos dirigir nuestro futuro, por ejemplo para encontrar un enfoque responsable y moral de la IA. ¿Cómo debería ser el futuro? ¿Cuáles son los problemas que queremos resolver con la IA en el futuro? ¿Cuál es la "zona libre de IA"? ¿Y por qué? Ahora es el momento de hacernos estas preguntas para orientar el desarrollo de la IA en la dirección correcta y garantizar la existencia de suficientes guardarraíles a través de la regulación.

 

Regulación en interés de la IA y la ética: no restringir la innovación

Sin embargo, la regulación necesaria no debe ahogar la innovación. Los reglamentos deben limitarse a proporcionar directrices de actuación para prevenir riesgos y reforzar la confianza en las soluciones de IA desarrolladas. Al mismo tiempo, deben esbozar un marco en el que puedan prosperar las innovaciones de la IA. Por tanto, necesitamos una regulación adecuada y clara en torno a la inteligencia artificial que proporcione seguridad y permita el potencial de innovación.

Sobre la persona

Saara Hyvönen es una de las tres cofundadoras de DAIN Studios, la consultora líder en IA con oficinas en cuatro países europeos. Es doctora en matemáticas y cuenta con una amplia experiencia en la aplicación de la ciencia de datos tanto en entornos académicos como empresariales, por ejemplo como investigadora posdoctoral en ciencia de datos en la Universidad de Helsinki y como responsable de analítica CRM global en Nokia.

Está especializada en el desarrollo de estrategias de datos e IA, la identificación de casos óptimos de uso de datos y la definición de los datos asociados, la arquitectura y los requisitos de cumplimiento. Busca respuestas a toda la gama de preguntas sobre qué, por qué y cómo. En 2021 fue incluida en la lista de las 100 mujeres más brillantes en ética de la IA.

"¡Me encanta hacer que los datos funcionen!"


Saara Hyvonen

Puestos similares

es_ESEspañol