El futuro de la IA y mitigación de riesgos

Original article was published by Gonzalo Mondaca on Artificial Intelligence on Medium


El futuro de la IA y mitigación de riesgos

Desde su incepción, la inteligencia artificial ha estado rodeada de especulaciones sobre su potencial y sus riesgos. Desde la ficción hasta la filosofía y la tecnología, existe cierto romanticismo y misterio alrededor de la inteligencia artificial en la cultura popular. Ya sea por Odisea al espacio 2001, Terminator o Matrix, difícilmente encontraremos a alguien a quien no le suena la imagen de la máquina que se vuelve consciente y atenta contra la humanidad. Sin embargo, la ciencia detrás de la ficción no es tan conocida por la mayoría, y el muy mencionado riesgo se ha transformado en algo bastante abstracto y difícil de evaluar. ¿Es la idea de robots malvados lo único de lo que deberíamos preocuparnos? En los últimos años ha habido un avance sustancial en estas tecnologías, y con ello, los riesgos parecen haber llegado de golpe y en formas mucho más reales de lo que imaginamos.

Si bien la idea de una inteligencia artificial con sentimientos y conciencia no es descabellada, no es necesario que una máquina inteligente posea aquellas características para tener consecuencias impredecibles y potencialmente negativas.

La discusión sobre los riesgos de la IA es amplia, pero aquí proponemos analizar los riesgos de dos maneras: por una parte, de acuerdo con la conmensurabilidad de los sistemas, o, dicho de otra manera, nuestra capacidad para entender, modelar y predecir el comportamiento de una determinada IA. Por ejemplo, si podemos expresar su comportamiento de manera determinística, probabilística o heurística. Por la otra parte, consideraremos los tipos de output o “acciones” directas que genera la IA. Incluso el ser humano más inteligente tiene poco efecto sobre el mundo si no puede interactuar de ninguna manera significativa con el resto del mundo.

Podemos pensar en la primera categoría como aquellos riesgos potenciales que aún no podemos concebir claramente, y la segunda como la expresión más concreta de estos riesgos. En la práctica los riesgos tienden a recaer más en esta última categoría. Aunque pueden hacer cosas geniales, la mayoría de los sistemas “inteligentes” actuales son bien comprendidos y podemos cuantificar con exactitud lo predecible de su comportamiento. En este sentido, por ejemplo, imaginar que una red neuronal que reconoce imágenes repentinamente se vuelva consciente y quiera amenazar a la humanidad, es equivalente a temer que nuestra calculadora de bolsillo nos apuñale mientras dormimos.

Es decir, por ahora la mayoría de los riesgos tienen más que ver con limitar el alcance directo de la acción de la IA. Pero esto no es muy diferente de cualquier error de programación fuera del contexto de la IA. No hace falta que un sistema tecnológico incorpore una IA para que alguno de sus errores tenga consecuencias nefastas. Caídas de servicio, pérdida de datos, dinero o incluso vidas: son todos riesgos que han existido desde el inicio de la automatización de procesos.

En este sentido, podríamos pensar en la mitigación de riesgos de la IA actual como una extensión de la evaluación de riesgos de cualquier sistema tecnológico. Con esto no queremos decir que las aproximaciones actuales han sido óptimas. El creciente uso de sistemas tecnológicos ha generado profundas consecuencias socioculturales y políticas que con frecuencia han sido abordadas solo en retrospectiva, cuando nos damos cuenta de los efectos negativos. Es decir, hace falta entender la idea de riesgo como algo de mayor alcance, y para cualquier sistema tecnológico, no solo IA.

Ahora bien, aunque la IA actual no parezca una amenaza, la calidad de los resultados y el nivel de abstracción de las tareas que realizan aumenta rápidamente con los años. Podríamos decir las IA tienen cada vez más variadas y mejores habilidades cognitivas. Y claro, podríamos volver al punto anterior y argumentar que esto es simplemente una forma más avanzada de automatización, y que mientras limitemos su “espacio de acción” y los elementos del sistema en los que interviene, entonces el modelamiento de los riesgos debería ser similar a los que ya hemos enfrentado. El problema es que eventualmente podremos diseñar IA que pueda modificar con alguna flexibilidad su propia estructura. Esto podría ser muy atractivo desde el punto de vista de la eficiencia, pues la IA podría realizar pequeños ajustes incrementales por sí misma, en lugar de tener que ser reentrenada o rediseñada por un equipo de especialistas cada vez que se quiera adaptar la IA a nuevas condiciones. En cierto sentido, la mayoría de las IA actuales son estáticas, en tanto su arquitectura, “estrategia” de aprendizaje o proceso matemático de optimización no cambia. Esta nueva habilidad le daría la opción a la IA de rediseñarse en alguna medida.

En este punto uno podría objetar que basta con encontrar mecanismos para limitar, al igual que antes, el espacio de acción de la IA, y que los riesgos, si bien muy importantes, siguen siendo tan conmensurables como antes. El problema es que, ahora que la IA puede rediseñarse. Si antes había un bug o error en el sistema, la IA seguía siendo igual, y el enfoque estaba en corregir el error e intentar lidiar con el daño. Para una IA que puede cambiar sola, un bug en el sistema es una nueva posibilidad de cambio no contemplado en su diseño. Mientras más capacidad de acción le otorguemos a la IA, más difícil es garantizar que se mantengan las restricciones que nos gustaría imponerle.

Supongamos que queremos limitar el funcionamiento de una IA a un segmento de memoria reducido de nuestro computador. ¿Qué sucedería si un bug del sistema operativo le permite a la IA deducir información de otras regiones de la memoria? Bugs similares ya han sido descubiertos antes. Para la IA, esto sería una simple fuente de información adicional para optimizar su objetivo. ¿Qué pasaría si ocurriese algo similar con las funciones de red del equipo? Si le concedemos la capacidad de modificarse, ¿qué nos asegura que los mecanismos de protección se mantengan en el tiempo? El tema no es que no pueda haber buenos mecanismos de protección. El problema es que basta que en algunos casos fallen para llegar a producir un efecto en cadena impredecible.

Esto nos lleva a la pregunta del millón. ¿Cómo deberíamos abordar las tecnologías de IA mientras avanzamos hacia el futuro? Ha habido varias proposiciones al respecto. Como muchos, creemos que la prohibición es difícil de hacer cumplir. Las regulaciones tienen también sus dificultades y aún queda la pregunta sobre que regulaciones exactamente deberíamos establecer. En general nuestra opinión es similar a la de muchos otros: a la vez que la IA avance, debemos invertir en investigación para mecanismos de seguridad. Al igual que otros problemas contemporáneos como, por ejemplo, el cambio climático, el impacto de las medidas que podemos concebir actualmente parece aún demasiado pobre y limitado. El problema de seguridad de la IA es en buena parte un problema ingenieril. Esta es una respuesta un tanto insatisfactoria pero realista. El ingenio humano es nuestra mejor herramienta para habilitar nuevas y posibilidades. Necesitamos avanzar con conciencia de que estos avances en protección quizás ocurran demasiado tarde si no prestamos la atención necesaria y decidimos tomar una actitud proactiva hacia su investigación oportuna.

Por ahora, sin embargo, le recomendamos al lector que guarde su calculadora bajo llave antes de dormir.