¿Regular o no regular la "inteligencia artificial"? Ese no es el dilema

AutorMario Zúñiga Palomino
CargoAbogado por la Facultad de Derecho de la Pontificia Universidad Católica del Perú

Nothing in life is to be feared, it is only to be understood. Now is the time to understand more, so that we may fear less”. ― Marie Curie

Probablemente esté agotado (o asustado) ya de tanto leer sobre los posibles impactos de la “inteligencia artificial” (IA) y propuestas para regularla e incluso “pausarla”. Eliezer Yudkowsky, un investigador del Machine Intelligence Research Institute de los Estados Unidos de América, ha llegado a sugerir —partiendo de la premisa ciertamente cuestionable de que el resultado inevitable de tener una “super inteligencia artificial” mayor a la humana será la aniquilación de nuestra especie en un corto tiempo— que debería monitorearse el poder de computación de los países e incluso bombardearse a los que desarrollen inteligencia artificial fuera del restrictivo marco que se propone. Cito textualmente para que no se considere que exagero:

“Hagamos explícito en el Derecho Internacional que la prevención de escenarios de extinción causados por la IA se considera una prioridad, por encima de la prevención de una guerra nuclear total; y que los países aliados con capacidad nuclear están dispuestos a correr algún riesgo de tal guerra si eso es lo que se necesita para reducir el riesgo de grandes carreras de entrenamiento de IA”[1].

Es necesario, sin embargo, poner las cosas en perspectiva. No cabe duda de que la IA puede ser revolucionaria ni de que tendrá un gran impacto en la economía y en las relaciones humanas en general. Como toda tecnología, su introducción nos presenta beneficios y también costos y riesgos. Consideramos que es importante, en primer lugar, entender qué es la IA y luego, sobre la base de la mejor evidencia disponible, identificar qué riesgos o “fallas de mercado” son reales. Posteriormente esos riesgos o costos se deben contrapesar a los beneficios ofrecidos. Luego de ello, recién podemos identificar qué tipo de regulación puede ser realmente necesaria y efectiva; y con qué alcance.

¿Qué es la IA?

El concepto de IA es elusivo. El término “inteligencia” es engañoso, por lo menos por ahora, porque las computadoras están muy lejos de llegar a pensar como lo hace un ser humano, a tener lo que llamamos sentido común, o a adaptarse al amplio rango de situaciones las que podemos adaptarnos los seres humanos. El término se usa para denotar que las computadoras actúan como si fueran inteligentes, al “razonar” o “crear” nuevas respuestas o realizar las acciones solicitadas. En la práctica, se trata de algoritmos, funciones matemáticas que transforman un input en un output[2]. Estas funciones y los inputs que se utilizan en ellas son creadas por humanos. Son humanos los que deciden que hará la IA con la data que se le ingresa.

Claro, así dicho parece muy sencillo y poco importante; pero estas funciones están respaldadas por enormes bases de datos (información que los seres humanos no pueden retener ni procesar rápidamente) y además por un proceso de machine learning; que les permite mejorar de forma “autónoma”.

Eso no quiere decir que por muy poderosa que sea esta herramienta, vaya a generar que las computadoras tengan consciencia o voluntad de realizar algo. En un episodio del podcast Econtalk, de Russ Roberts, el fatalista autor al que hacemos referencias en la introducción del presente artículo, Eliezer...

Para continuar leyendo

Solicita tu prueba

VLEX utiliza cookies de inicio de sesión para aportarte una mejor experiencia de navegación. Si haces click en 'Aceptar' o continúas navegando por esta web consideramos que aceptas nuestra política de cookies. ACEPTAR