UE toma la delantera en proponer leyes que limite y explote la IA adecuadamente

A pesar de que la Inteligencia Artificial (IA) tiene sus orígenes hace más de 70 años, ciertamente la tecnología de aquel entonces no permitía llegar a un nivel avanzado y de amplias capacidades como las que logró con la llegada de los ordenadores.

No fue hasta la década de los 80s cuando empezaron a surgir las primeras computadoras más avanzadas que marcaban el inicio de una nueva era digital, algo dio inicio en una vieja computadora llamada Deep Blue de IBM que era ya capaz de interactuar con un ser humano y tomar sus propias decisiones en un juego de ajedrez.

Gracias a la oleada de avances tecnológicos que se han presentado con la llegada del siglo XXI, aquella idea sacada de una novela de ciencia ficción donde los robots eran tan avanzados como para sustituir al ser humano, finalmente se volvió una realidad.

Aunque lejos de dejar desempleados miles de personas, la IA empezó siendo una herramienta para, de hecho, ayudarles a encontrar trabajo y mejorar la vida cotidiana de las personas, haciendo el “papeleo” y tomando decisiones triviales por las personas para que pudieran concentrarse en algo más importante.

Desde ayudar a planear el día, hasta gestionar enfermedades epidémicas como la diabetes para ayudar a las personas a tener un mejor estilo de vida, y este es solo el comienzo de todas las posibilidades que estaremos experimentando a partir de ahora.

LEER
¿En qué consiste el factoring?

Sin embargo, dichas posibilidades no siempre estarán del lado de la justicia y el bienestar del ser humano, especialmente ahora que la IA está prácticamente a la mano de cualquier persona que podría explotarlo de la peor manera, una difícil de ponerle un alto si no se vigila de cerca lo que las personas hacen con esta tecnología.

La Comisión Europea determina límites de riesgo para poder tener una regla con qué medir las tecnologías con IA

La comunidad científica-tecnológica apuesta fervientemente con que las innovaciones tecnológicas deben compartirse con todo el mundo, y eso lo vemos con las diferentes páginas web de código abierto u open source que pone a la mano de todo el mundo el desarrollo de dichas tecnologías emergentes.

Los amantes de la tecnología no son los únicos, pues las empresas en su carrera incesante por obtener las mejores innovaciones y hacer sus productos más atractivos al consumidor, también han puesto innovaciones en la palma de la mano del usuario.

Dicho esto, no es muy difícil imaginar que nuevos usos cada vez más avanzados de IA aparecen todo el tiempo desde todas direcciones, sin un control o idea clara de cuáles de estas innovaciones realmente cumplen con reglas de seguridad.

LEER
La mina de oro Mponeng: Conoce la mina más profunda del mundo y lo que aporta al mundo

Por eso, la Comisión Europea ha puesto manos a la obra para crear una forma de identificar y medir el grado de peligrosidad y legalidad al utilizar o desarrollar sistemas basados en IA, donde encontramos 4 niveles:

  • Inaceptable (Unacceptable): Estarán prohibidos sistemas con IA que atenten contra la seguridad y la vida, así como los derechos de las personas. Por ejemplo, aquellos que intenten manipular el comportamiento de las personas para incitarlos a la violencia, como en aquel caso donde Alexa, el asistente de voz, instruyó accidentalmente a un niño a realizar un reto viral peligroso.
  • Alto Riesgo (High risk): Así serán catalogados los usos de la IA en cuestiones críticas como atentar contra la salud, educación, trabajo y otros aspectos de las personas. Por ejemplo, crear un sistema que ayude a hacer trampas en exámenes del colegio o en el sistema de reclutamiento de una empresa,  se pongan al servicio de la inmigración ilegal, falsear servicios públicos, etc.
  • Riesgo Limitado (Limited risk): Serán aquellos sistemas con IA que no son del todo transparentes, provocando que las personas entren en conflicto o confusión, por ejemplo, al hacer uso de la asistencia por chat de algún servicio web, es necesario advetir al usuario que se trata de un bot si es el caso.
  • Riesgo Mínimo (Minimal riks): Aunque esté referido como alguna clase de “riesgo”, este nivel prácticamente podría englobar sistemas IA que sean inofensivos, por lo que la normativa de control de riesgos podría no ser necesaria. Por ejemplo, la IA utilizada para recreación como videojuegos o generar imágenes.
LEER
Qué es el Bitcoin. Todo lo que tienes que saber de esta moneda virtual

Esta ha sido una de las primeras propuestas para que las demás organizaciones y autoridades nacionales de la UE empiecen a crear códigos, normativas y protocolos que guíen en buen desarrollo de sistemas con IA.

 Si bien, aún no están en una fase de elegir y aprobar nuevos reglamentos, se dice que una vez aprobadas no se espera que se apliquen de forma inmediata, pues se estima que por lo menos pasará un año para ajustarse y adaptarse.

Lo que se concluya y analice en las discusiones europeas será el camino a seguir para otras potencias mundiales como Estados Unidos y Asia

Ser pioneros en legislaciones no es nada fácil, pues la línea entre garantizar el orden y oprimir el avance, es demasiado delgada. Especialmente cuando estamos en un panorama tecnológico que cambia de la noche a la mañana.

Tras año y medio de arduo trabajo, rueda de conferencias y seminarios de a montones, aún las ideas y propuestas están tomando forma  entre los grupos políticos, y es que no hay polos opuestos en algo tan complejo.

Tan solo para una tecnología tan importante como el reconocimiento facial por IA que ha ayudado a muchas personas en cuestiones de seguridad cibernética, tiene sus propios matices, pues también se puede utilizar para el robo de información.

LEER
Arte en asfalto sería la solución para evitar atropellos y depresión urbana

Es como tratar de regular un cuchillo de doble filo, cuyo propósito es cortar, pero cortar también puede herir en diferentes escenarios.  Es imposible poner una regla tan simple como “no cortar a otra persona”, cuando es la principal herramienta de un cirujano.

Aunque este fue un ejemplo algo burdo, nos da una idea de poner reglas no es nada fácil especialmente cuando estamos hablando de una tecnología que promete el progreso y está al alcance de todos para hacer de él, algo nunca antes visto.

Es así como Europa ha decidido meterse de lleno a impulsar la industria de la Inteligencia Artificial que nos llevará al siguiente nivel, pero  deberá anotar y anticipar los riesgos que puede traer un “arma” en un permanente estado de evolución.

Y aunque las empresas tecnológicas que las están desarrollando bien podrían empezar a poner reglas claras, simplemente no ha sido el caso, provocando que la iniciativa corra a cargo del Congreso y otras autoridades europeas.

¿Una misión imposible? No tanto si tomamos en cuenta que Europa no ha podido llegar al nivel de Estados Unidos y China quienes llevan la delantera en el ámbito de IA, una ventaja que puede ser utilizada para anticipar los peligros y las proyecciones de esta tecnología en Europa.

LEER
Consejos para obtener crédito

Ya que no solo se trata de delimitar esta tecnología para que no caiga en malos usos, también se trata de que las empresas se sientan cómodas con dichas legislaciones y así evitar repercusiones en medio de la competencia por alcanzar a sus rivales americanos y asiáticos.

También hay dinero en juego, pues ya se espera que se abra una inversión de hasta 20 mil millones de euros anuales públicas y privadas, es decir, cerca de 6 mil millones de los que se invierten actualmente, una cifra que supera por mucho a las de Estados Unidos y China, creando un futuro optimista para el desarrollo de IA en Europa.

Otro aspecto también tocado ha sido el de la autonomía de la IA, mientras que en Estados Unidos busca que la IA sea completamente autónomo, Europa pretende “no soltarle la cuerda” a dicha tecnología, acordando con que la tecnología contará con un mecanismo que permitirá ser supervisado por personas en caso de emergencia.

Esto principalmente en el sector salud o movilidad, donde los algoritmos pueden llevar todos los procesos de forma automática, y donde se espera que personal capacitado pueda intervenir e influir también en las decisiones de la máquina que sean potencialmente riesgosas.

LEER
La crisis económica será inevitable si perdura el cambio climático o si tratamos de detenerlo

La eurodiputada Miapetra Kumpula-Natri, apunta que no se trata de delimitar cierta tecnología específica (como el reconocimiento facial), sino de evitar frustraciones durante el transcurso de la evolución de la IA.

Una visión mezclada entre el impuso de esta tecnología y la moderación, es la que ha permitido llegar a este punto en el Parlamento Europeo, sin embargo, aún hay algunos políticos que apuestan por que sea más restrictivo.