Ética e Inteligencia Artificial

La inteligencia artificial aún sigue despertando más de un recelo. Es frecuente encontrar noticias en los periódicos que hablan de su aplicación, la cual alcanza cada vez más campos. Su desarrollo parece imparable, por lo que ya se están estableciendo parámetros éticos en este aspecto. ¿Cuáles son?

Ética y el uso de la IA

Si bien aún no hay máquinas pensantes, el uso de algoritmos que pueden mejorar por sí mismos su programación ya genera ciertos temores. Estos se utilizan para analizar ingentes volúmenes de datos, lo que genera una cierta preocupación por cómo se manejan y cuál es el fin de estas actividades. Establecer unos límites de la inteligencia artificial claros se antoja necesario, especialmente cuando su desarrollo y uso van en aumento.

Además, uno de los mayores problemas de una IA no es que desarrolle un pensamiento propio, sino que cumpla una programación deficitaria o errónea. Algo así podría provocar gravísimas consecuencias, ya que el programa se tendría que cumplir sin importar el impacto real.

Así, la Unión Europea apuesta por evitar estas situaciones hipotéticas y ya ha desarrollado una serie de principios éticos para el desarrollo de inteligencias artificiales. Los objetivos perseguidos son varios. Cimentar la confianza de la ciudadanía en esta tecnología, garantizar un desarrollo seguro y un uso responsable son algunos ejemplos.

De esta manera, la Unión ha redactado siete puntos que recogen su visión de cómo debería programarse una IA y que conforman unas líneas maestras para las empresas del ramo. Los puntos son los siguientes:

1. Intervención y supervisión humanas: Esto implica que los programas no podrán actuar enteramente por sí mismos, lo que permitirá responder con rapidez ante cualquier error o funcionamiento deficiente. Además, habrá que aplicar las medidas de contingencia necesarias en caso de mal funcionamiento.

2. Solidez y seguridad técnica: Los programas informáticos son susceptibles de ser atacados y modificados a través de ataques informáticos. Una acción de este tipo vulneraría la seguridad de los ciudadanos, por lo que debe llevarse a cabo una programación sólida, resistente y resiliente con planes de contingencia en caso de hackeo del sistema.

3. Privacidad y gestión de datos: El buen uso y cuidado de los datos de los ciudadanos estará garantizado a lo largo de toda la vida útil de la IA. De esta manera se evita su uso improcedente o la venta fraudulenta. También se establecen medidas para frenar cualquier intento de robo.

4. Transparencia: Es necesario conocer quién está detrás del desarrollo de la IA y cuáles son los fines que se persiguen con su desarrollo. El objetivo es poder reconstruir su funcionamiento y conocerlo con toda precisión.

5. Diversidad, equidad y no discriminación: La posibilidad de crear estos programas con sesgos es muy real, por lo que deben establecerse garantías durante la programación para evitar, en la medida de lo posible, tanto sesgos directos como indirectos.

6. Bienestar social y medioambiental: El desarrollo será sostenible en todo momento y teniendo en cuenta su posible impacto en la sociedad. Esta tecnología podría causar serias disrupciones sociales, como provocar un aumento del desempleo.

7. Rendición de cuentas: Las empresas tienen que permitir que se auditen, tanto de manera externa como interna, los resultados de la actividad de sus inteligencias artificiales. Así, se conocerá, con datos objetivos, el desempeño de la actividad de cada una.

Con estos principios éticos se podrá desarrollar una inteligencia artificial al servicio del ser humano. La Unión Europea apuesta con firmeza por unir la ética y el uso de la IA, lo que permitirá a toda la sociedad beneficiarse del avance de esta tecnología y, además, se irán demoliendo tanto mitos como recelos fuertemente enraizados.

2020-05-14T14:15:55+02:0014 mayo, 2020|