Con la reciente divulgación de la inteligencia artificial al público masivo ha saltado a la palestra mediática un tema que suele estar alejado del interés general: la regulación tecnológica.
Varias voces cualificadas para opinar al respecto inclusive han firmado peticiones para que los diferentes gobiernos regulen el desarrollo de la IA. Haciéndolo en nombre de la misma subsistencia de la humanidad, ni más ni menos, echando más leña al fuego.
En general, pareciese que los países están atrasados en este tema y los correspondientes legisladores no tienen muy claro que se debería hacer, pero esto no es necesariamente así en todos los casos.
Desde SAIA queremos ayudar a echar algo de luz sobre este tema y hemos comenzado un proyecto para recopilar las iniciativas llevadas a cabo en el mundo para ponerlas a disposición de las diferentes entidades que puedan estar interesadas.
Este artículo es apenas una introducción, sólo un punto de partida para luego profundizar en esta temática tan fascinante como relevante para nuestro futuro.
Técnicas que componen la IA
Para comenzar, parece importante definir con más precisión que es la inteligencia artificial, cuál es el objetivo concreto a ser regulado.
El escritor Ted Chiang la definió de manera brillante cuando le preguntaron qué es: “Una pobre elección de palabras en 1954”.
El término “Inteligencia artificial” sin duda es más aspiracional que descriptivo. Entendemos que era una manera muy sexy de llamar a una nueva área de estudio, pero cuando entramos al detalle, se trata de una serie de procedimientos y algoritmos estadísticos.
Por un lado tenemos un grupo de técnicas en torno al aprendizaje automático. Incluyendo aprendizaje supervisado, no supervisado y reforzado, utilizando una variedad de métodos como el aprendizaje profundo.
Por otro lado tenemos sistemas de conocimiento / lógicos, como representación de conocimiento, programación lógica inductiva, motores de inferencia y deductivos, razonamiento simbólico y sistemas expertos.
Por último, tenemos los acercamientos netamente estadísticos como las estimaciones Bayesianas o métodos de búsqueda y optimización.
De todos modos, aunque hablemos de métodos prácticos, sin la “magia” que inspira el nombre original, no deja de ser asombroso que la humanidad esté por primera vez ante el reto de regular el uso de las matemáticas, porque pueden llegar a representar un peligro existencial. Pitágoras nos observa.
Los retos para la regulación de IA
Básicamente hay dos grandes objetivos para las regulaciones: la gestión de los riesgos asociados a esta tecnología y el incentivo a su desarrollo.
En el imaginario general parece ser un juego de suma cero, pero en realidad hay más de intuición que de otra cosa en esa idea.
Incentivar su desarrollo parece ser la parte más sencilla de encarar desde la perspectiva legislativa-institucional. Los estados pueden usar fórmulas ya aplicadas a otras industrias o tecnologías en el pasado. El sector privado se encarga del resto.
El problema viene por la parte de los riesgos. Inclusive en los niveles científicos más avanzados hay más incertidumbre que certezas. Si esto le ocurre a las personas que llevan décadas trabajando en este campo, la opción que nos queda al resto de mortales roza la fe ciega.
En este marco es difícil establecer si ambos ejes de acción son inversamente proporcionales o pueden coexistir sin perjudicarse el uno al otro. Podrían, incluso, potenciarse.
Depende de nosotros alinearlos correctamente y generar un marco virtuoso que saque lo mejor de esta tecnología mientras nos protege de todo mal. Por lo menos, nos debemos exigir el aspirar a ello e intentarlo con nuestro mayor esfuerzo.
Incentivos
Desde el punto de vista del desarrollo de esta tecnología, ya se han dado pasos concretos en muchos países, generando planes de acción que ya tienen unos años de vida.
Estos incluyen inversiones, creación de instituciones especializadas, el inicio de estudios regulatorios y requisiciones oficiales de información, entre otras iniciativas por el estilo.
Ahora es necesario dar un paso más en el sentido regulatorio, para crear un marco legal en el que el sector privado pueda operar y florecer, tanto empresas como inversores.
Riesgos
Aquí es donde entramos casi al completo en el campo de la especulación. Somos conscientes que hay más por descubrir que lo que ya sabemos. Esta tecnología, de un impacto tan transversal, nos propone retos filosóficos, económicos o políticos, más allá de lo estrictamente legal o técnico.
Pero por lo pronto, alrededor del globo se identifican varios riesgos potenciales en los que ir trabajando regulatoriamente.
El primer motor
La base de los temores, por lo menos desde la óptica regulatoria, se fundamentan en el hecho de que los resultados de los algoritmos de IA no suelen ser deterministas. No dicen: seguro esta es la respuesta correcta. Dicen: esta es la respuesta que creo más se acerca, con un X% de fe en la afirmación (generalmente debajo del 100%).
Los riesgos que se describen a continuación, y probablemente los próximos por emerger, emanan de esa duda. La cuestión es decidir qué cosas estamos dispuestos a jugarnos a los dados, que tira una máquina.
Los ejes del mal
Aquí hemos recopilado algunos de los ejes principales de preocupación en la conversación global sobre este tema.
La utilización de la IA para el control de infraestructuras críticas es el más evidente de todos. Sin duda parece sensato estudiar muy bien hasta qué punto se puede tener respuestas lo suficientemente fiables como para confiarle la gestión de los aviones en un aeropuerto, por ejemplo. También puede tratarse de cosas más cotidianas como el ascensor de tu casa.
Otro riesgo palpable es el de generar sesgos discriminatorios que puedan afectarnos en cualquier ámbito. Por ejemplo, se piensa en la evaluación de acceso a créditos o a promociones laborales, desde la óptica privada, mientras que preocupa el acceso a servicios o beneficios desde lo público. Comienza a nacer la idea del derecho a la decisión humana.
En el ámbito legal, también se considera de alto riesgo la implementación de IA para apoyar procesos judiciales, temas migratorios o de supervisión de procesos democráticos, como unas elecciones.
Un paso más allá, en el aspecto de la implementación por fuerzas de la ley, las preocupaciones se centran en los sistemas masivos de identificación biométrica a distancia. La peculiaridad de este riesgo es que lo que preocupa al público general no es tanto el resultado en sí de la IA, sino el mero derecho a la privacidad.
Por último, otra de las principales preocupaciones tiene que ver con los contenidos falsos, deep fakes, etc. Con la eclosión de la IA generativa, ha quedado en evidencia que pronto se podrán generar contenidos sintéticos indistinguibles de contenidos reales. Imágenes, videos, audio, voces, música, textos, etc. Básicamente todas las maneras que tenemos para comunicarnos. Cómo va a afectar esto a un mundo acostumbrado a confiar en lo telemático es un enigma. Cómo vamos a demostrar nuestra identidad por ejemplo, se podría reproducir mi imagen, mi voz, mi manera de expresarme verbalmente, etc.
Las omisiones
Por supuesto están quedando fuera de esta lista algunas otras aristas, como mencioné antes, esto pretende ser solo una introducción no extensiva.
Pero vale la pena mencionar que un tema muy importante, que si se está dejando de lado adrede internacionalmente: el uso militar de la IA, las armas autónomas, etc.
Tampoco hemos detectado por ahora que se esté pensando en temas anti-monopolio, concentración de poder, etc., siempre desde el ámbito regulatorio internacional.
Enfoques
En un dominio de un impacto tan universal como la IA, surgen entrelazamientos regulatorios con temas de propiedad intelectual, privacidad, soberanía, salud, laboral, comercio y muchos más.
Armonizar todas las derivaciones posibles es claramente una tarea complicada, una dinámica compleja con interrelaciones que no podemos comenzar a prever, sobre todo teniendo en cuenta el nivel de incertidumbre reinante.
La duda es tan fundamental que nos planteamos si hay que regular o no. Es apenas un primer escalón el que, en muchos casos, aún no subimos. Una vez resuelta esa duda comienza el camino para decidir como regular o no en la práctica.
Muchos especialistas y algunos países, como Japón, creen que ante la incertidumbre, lo mejor es intervenir lo menos posible en el desarrollo de la IA. Simplemente se limitan a materializar normativamente la no intervención y hacen una serie de recomendaciones de gobernanza (generalmente bastante difusas, invocando valores morales (Japón) o ideológicos (China)).
El otro enfoque preponderante es el de la Unión Europea, que plantea un esquema regulatorio diferencial según el nivel de riesgo de la aplicación específica. Proponiendo una serie de obligaciones de vigilancia para aquellos servicios de alto riesgo, mientras que se limita a simples recomendaciones para usos más seguros.
Una tercera vía de pensamiento, aunque no excluyente, propone crear una entidad de jurisdicción global como ya se ha hecho en el pasado con la energía nuclear, por ejemplo.
Sin duda hay mucho que pensar aun.
Nuestro aporte
Desde SAIA ponemos en marcha el programa de regulaciones donde tenemos por primer objetivo aglutinar la información y pensamiento disponibles al respecto. Crear un repositorio integral, actualizado y accesible para poner a disposición de interesados académicos, científicos, profesionales o institucionales que se puedan beneficiar de ello. Es una manera concreta de poder ayudar en la práctica, entre tanta incertidumbre conceptual.
La idea es publicar un primer documento más detallado, estrictamente informativo para luego, en una segunda fase, publicar otro con recomendaciones, opiniones, valoraciones, etc.
Sin duda promete ser un camino apasionante.
* Francisco Ghelfi: Proud dad / Scalability manager @ Artisans Technology / R+D PgM Lead @ SAIA