A lo largo de la historia de la humanidad, los avances científicos y tecnológicos se han utilizado para hacer tanto el bien como el mal. Por eso, ante la irrupción de una herramienta tan poderosa como la Inteligencia Artificial (IA) han surgido ciertos dilemas éticos.
¿Constituye de por sí un recurso peligroso? ¿Tendrá en el futuro la capacidad para dañar por sí sola al ser humano? ¿Es necesario supervisarla convenientemente para que no cause problemas? Estas y otras preguntas son hoy objeto de debate social; y ya está llevando a gobiernos y a organismos de todo el mundo a tomar decisiones. Y de ello vamos a hablarte hoy en ACTIONS.
La Inteligencia Artificial desde un planteamiento ético
La tecnología no es peligrosa ‘per se’, porque realmente el riesgo está en el mal uso que puedan hacer de ella las personas. Es decir, todavía no ha llegado el momento en el algún ingenio tenga la capacidad de discernir por sí solo entre lo que es bueno y malo y se decante por lo segundo. Aún es necesario que alguien decida programarla y utilizarla con algún fin, por lo que realmente el gran peligro es que caiga en malas manos.
Sin embargo, probablemente llegue el día en el que la propia tecnología constituya un peligro por sí sola. Esta es una posibilidad que tanto el cine y la literatura llevan explorando varias décadas, principalmente poniendo a la Inteligencia Artificial en el foco de la atención. Y es que esta tecnología es la que aspira a lograr algún día emular los procesos de pensamiento humanos y su comportamiento.
De momento, podemos hablar de dos tipos de IA, la débil y la fuerte. La primera es la que existe actualmente, una tecnología que tiene la capacidad de hacer una tarea concreta y que depende totalmente del ser humano para funcionar adecuadamente. Mientras que la segunda es aquella que, supuestamente, en algún momento será capaz de superar la inteligencia humana e incluso adquirirá conciencia, así como la capacidad de sentir y de experimentar emociones.
A raíz de todas estas opciones, el escritor Isaac Asimov (1920-1992) promulgó sus famosas ‘3 leyes de la robótica’; según las cuales un robot no podría nunca dañar a un ser humano o darle órdenes. Pero el problema está en que llegue el día en el que las máquinas superen las capacidades naturales de las personas y tomen el control, y que en su nueva condición de ‘seres pensantes’, tomen sus propias decisiones y opten por hacer el mal.
Los peligros de la Inteligencia Artificial
Desde una perspectiva donde no hay límites tecnológicos para la IA, los riesgos son impredecibles. Solo el futuro determinará donde están estos márgenes, aunque a día de hoy ya podemos identificar algunos peligros reales de este avance. Así, Haydn Belfield, del Centro para el Estudio de Riesgo Existencial de la Universidad de Cambridge, apunta que son tres:
- Accidentes, a consecuencia del mal funcionamiento de los sistemas de IA. Un ejemplo puede ser un accidente por un error de un coche autónomo.
- Malos usos, relacionado con lo que hemos comentado sobre las decisiones humanas (tomadas conscientemente o por error) que provocan que el uso de esta tecnología tenga consecuencias negativas.
- Carrera de armas, de forma que la IA se utilice en conflictos bélicos y con el fin de causar daño.
¿Es necesaria una supervisión institucional?
Dado que existen riesgos y peligros, tanto presentes como futuros, es evidente que es necesario tomar medidas para seguir de cerca la evolución de la IA y su adecuada utilización. Empezando por la creación de una legislación que abogue por su correcto desarrollo y regule su empleo; y siguiendo por la instauración de mecanismos institucionales para su supervisión.
De hecho, España ya ha dado el primer paso en este sentido, al contemplar dentro de su Ley de Presupuestos Generales del Estado para 2022 la creación de una ‘Agencia Española de Supervisión de Inteligencia Artificial’. La intención es que la misma tenga personalidad jurídica pública, patrimonio propio, autonomía en su gestión, potestad administrativa y capacidad de actuación con plena independencia orgánica y funcional, para poder trabajar de manera objetiva, transparente e imparcial.
Entre sus funciones estará la “minimización de riesgos significativos sobre la seguridad y salud de las personas, así como sobre sus derechos fundamentales, que puedan derivarse del uso de la Inteligencia Artificial”.
Por lo tanto, se tomarán actuaciones propias y se coordinarán también otras con las autoridades competentes, así como se dará apoyo a entidades privadas cuando se requiera. Todo ello sin olvidar su participación en los proyectos de la Estrategia Nacional de Inteligencia Artificial y de la Unión Europa, entre los que se contempla el mencionado desarrollo normativo sobre la IA y sus posibles usos.
Un futuro por hacer y donde la IA será una de las grandes protagonistas
En definitiva, aún es pronto para ver qué implica esta decisión del Gobierno de España. Pero lo que es evidente es que supone toda una declaración de intenciones y refleja que el correcto desarrollo y uso de tecnologías como la IA es un tema que está en la agenda de las instituciones oficiales, para que el día de mañana no se convierta en un problema.
Te recomendamos: