El dilema de la inteligencia artificial

Inteligencia artificial
La inteligencia artificial permite hacer cosas que antes estaban reservadas a los humanos

 

La inmensa mayoría del software que se ha programado en la historia no es más que una cadena de instrucciones, de órdenes del tipo ‘si pasa esto, haz esto’. Son sencillas o complejas, con muchos o pocos caminos posibles dependiendo de lo que el software deba hacer.

Así. solo con algoritmos, hemos progresado desde los tiempos de Alan Turing. La computación personal, internet, los teléfonos móviles, las redes sociales y casi toda la tecnología que tenemos hoy fue programada de esa manera.

Pero ese sigue siendo un modelo limitado. Aunque es muy bueno para hacer tareas repetitivas, o que requieran de una gran capacidad de hacer cálculos matemáticos, sí les impedía a los computadores hacer cosas que requirieran de procesos mentales complejos: cosas como responder de forma apropiada a un mensaje, o crear un poema o una canción.

Si nos pusiéramos a recrear lo que ocurre en nuestras mentes cuando realizamos algo como eso, el algoritmo sería de una complejidad inabarcable. Pero los especialistas en inteligencia artificial están pensando en maneras de que los programas informáticos puedan hacer esa clase de cosas con éxito. ¿Cómo? por medio de inteligencia artificial.

A esto, Greg Corrado, investigador científico sénior en Google, lo llama “ser astuto”. El truco, dice, no es crear un programa tan complejo como la mente humana: “Programar un computador directamente para que haga cosas astutas es mucho más difícil que enseñarle a aprender, y hacer que aprenda a ser astuto”.

A las técnicas para entrenar computadores se les llama ‘aprendizaje de máquina’. Y aunque, en su mayoría, se trata de ideas que han sido debatidas por décadas en las facultades de informática y neurociencias de todo el mundo, “solo empezaron a funcionar bien hasta ahora, con los avances actuales en poder computacional”.

Hoy, esa es una de las principales apuestas que han estado haciendo todos los gigantes tecnológicos de unos años hacia acá. Google, Apple, Microsoft y Facebook son solo algunas de las compañías que están en la carrera por ser las primeras en ofrecer un software mucho más humano, que pueda hacer cosas que antes estaban reservadas a las personas.

Ya tenemos los primeros resultados. Desde Siri hasta Google Photos, pasando por Cortana o los bots de Facebook o Slack, es cada vez más claro que la inteligencia artificial será la piedra fundacional de muchas de las herramientas tecnológicas que usemos en el futuro.

¿Cómo se hace?

Inteligencia artificial
La inteligencia artificial permite hacer cosas que antes estaban reservadas a los humanos

Lo que busca el aprendizaje de máquina es lograr que el software se programe a sí mismo. Si el algoritmo para identificar el rostro de una persona –por ejemplo– es demasiado complejo, lo mejor es que la misma máquina lo descubra.

El método para lograrlo es hacer una enorme cantidad de pequeños procesos. La mayoría van a fallar, pero algunos se acercarán un poco más al objetivo. Luego, se repiten los que funcionaron y se les añade un segundo proceso. Ocurre lo mismo: la mayoría fracasan, pero algunos se acercan un poco más. Y así, ‘enjuague y repita’ hasta que se llega a una cadena de procedimientos que cumplen el objetivo.

Al proceso ya no se le llama ‘programar’, sino ‘entrenar’. Al principio, lo que se busca es que la máquina encuentre una manera de dar la respuesta correcta. El proceso se echa a andar hasta que la máquina sepa cómo hacerlo. Luego, la máquina comienza a intentar poner en marcha los mismos procesos en otras instancias del mismo problema, y el entrenador deben indicarle cuándo acierta y cuándo falla. Entre más se repita el proceso, mejores son los resultados.

Es un proceso que toma algún tiempo y, sobre todo, mucho poder de cómputo. Pero también requiere de mucha información. Y ahí es donde empiezan las preguntas.

El papel de los datos

Si un programa está aprendiendo a responder correos electrónicos tomando en cuenta el contexto, tiene que leer muchos correos electrónicos en su entrenamiento. Si está aprendiendo a clasificar fotos, debe ver muchas fotos. ¿Y de dónde salen esas fotos y esos correos? De los usuarios.

Los datos son el combustible de este cohete –dice Corrado–. Ofrecen los ejemplos de los cuales se aprende. Entre más datos, mejor el resultado”. Entre otras cosas, para eso es que Google lee tus correos y escucha tu voz: para entrenar a sus programas de inteligencia artificial.

Entre más datos se utilicen para entrenar a estas máquinas, más exitosas van a ser, pues van a tener más fuentes para aprender. La tentación está ahí: como dice Corrado, la privacidad “hace que el trabajo de hacer aprendizaje de máquina sea más difícil”.

Ese es el pecado original de la inteligencia artificial: la manera más efectiva de hacerla implica violar la privacidad de sus usuarios. Google Photos, por ejemplo, crea una especie de conciencia sobre mí y otra sobre ti, y la mía no sabe nada sobre la tuya. Pero si hiciera un único proceso con todas las fotos de todos sus usuarios, podría ser mucho más eficiente y poderoso.

¿A qué costo? Si Google decidiera hacer un ‘gran cerebro’ juntando todas esas conciencias, podría saber qué pasa en las vidas de todos sus usuarios al mismo tiempo. Sabría dónde estamos, con quién nos reunimos, dónde vivimos, a dónde viajamos, quiénes son nuestros amigos.

Por ejemplo: si yo aparezco detrás de una foto tuya, el robot puede buscar más fotos de ese lugar en esa fecha. Si lo conecta con mi historial de búsquedas y de navegación, con mi correo electrónico o los mensajes de la app de mensajería que utilizo, básicamente mi privacidad deja de existir. Sumen todo el índice de la web que Google almacena en sus servidores, el contenido de todos los videos de YouTube y todos los mapas de Google Maps y Street View, y tenemos el argumento de una distopía. Y parece que técnicamente ya sería posible.

¿Estamos, entonces, a merced de que Google decida ‘no ser malo’? La compañía dice que trata esos datos con muchísimo cuidado. “No permitimos que algún ingeniero de Google o ningún humano vea las fotos, a menos de que los usuarios hayan dado consentimiento para eso”, dijo a ENTER.CO David Lieb, jefe de producto de Google Photos. La empresa asegura que tiene una política parecida con los correos, y en general con cualquier información sensible de las personas.

Otras veces, cuando necesitan juntar la información de muchas personas para entrenar un robot –por ejemplo, cuando están afinando el programa de reconocimiento de voz–, se aseguran de que los datos estén anonimizados, de modo que no puedan ser asociados a ninguna información que permita identificar a los dueños de la voz.

Los usuarios son nuestros clientes, –dice Corrado– y no vale la pena romper su confianza”. Esa es la razón por la que, aseveran, nunca sucumbirían a la tentación de jugar al ‘Gran Hermano’. ¿Pero estarían dispuestos a que alguien más escrutara sus procesos? ¿Cómo verifican que ninguno de sus empleados rompa las reglas?

Toda esa información está regida por nuestras políticas de privacidad que determinan que la información se mantiene siempre privada y visible únicamente por el usuario –explicó Google en una declaración enviada a ENTER.CO–. En algunos casos, podemos utilizar esa información para mejorar los servicios que tú como usuario utilizas. Pero más allá de que mejore a los productos, siempre se mantiene privada y segura”.

Además, la compañía asegura que no comparte información con otras compañías, organizaciones o personas fuera de Google.

¿Una salida?

Inteligencia artificial
Se están pensando maneras menos invasivas de hacer Inteligencia artificial.

Hay varias maneras de salir del dilema. Una de ellas es no procesar los datos de los usuarios en servidores externos, sino en los mismos dispositivos. Esto limita mucho las posibilidades de la tecnología: como este es un ejercicio de volumen, entre más datos se tengan y más cómputos se hagan, mejor va a ser el resultado. Ni el procesador de un celular o un computador van igualar la capacidad de una granja de servidores, ni los datos de un solo usuario van a ser tan eficientes como los de cientos o miles de ellos.

Otra solución es anonimizar los datos. Es decir: transformarlos ligeramente de modo que sea más difícil identificar al usuario. El problema es que siempre va a ser posible encontrar una manera de revertir el proceso: “Puedes hacer algo más astuto que nunca para anonimizar tus datos, pero alguien más astuto que tú puede llegar mañana y desanonimizarlos”, dijo a Wired Aaron Roth, un experto en seguridad de la Universidad de Pensilvania, que está trabajando con Apple.

Hay una tercera opción: usar los datos de las personas de modo que no sea posible identificarlas. Se llama ‘privacidad diferencial’, y Apple anunció que planea implementarla a gran escala en la próxima edición de sus sistema operativo móvil, iOS 10.

La idea es que que no sea matemáticamente posible saber de quién vienen. Al contrario de la anonimización, la privacidad diferencial busca que éstos sean técnicamente imposibles de desenmascarar. Se usan varias técnicas: añadirles ‘ruido’ (es decir, datos aleatorios que no generan información) o limitar cuántos datos envía cada usuario a los servidores, entre otras.

Aunque Microsoft y la misma Google han estado investigando estas técnicas, Apple es la primera que dice que las aplicará a gran escala. No todos los expertos en comunidad de expertos en inteligencia artificial están de acuerdo en que sea posible, pero la compañía de la manzana ya empeñó su palabra. Habrá que ver, cuando salga iOS 10, cómo resulta este experimento. Pero si es exitoso, la inteligencia artificial habrá superado su principal escollo ético.

Imágenes: Richard Greenhill (vía Wikimedia Commons), _lmaji_ (vía Flickr).

José Luis Peñarredonda

José Luis Peñarredonda

Un día me preguntaron sobre mis intereses y no supe por dónde empezar. Decidí entonces ponerlos en orden y dibujé un diagrama de Venn para agruparlos a todos: Internet, cine, periodismo, literatura, narración, música, ciencia, fotografía, diseño, política, escritura, filosofía, creatividad... Me di cuenta de que en toda la mitad de ese diagrama, en el punto en el que todos estos círculos confluyen, está la tecnología. Eso me llevó a ENTER.CO. Estudié Periodismo y Filosofía en la U. del Rosario. PGP: http://bit.ly/1Us3JoT

View all posts

3 comments

  • Podría darse el caso que un ente inteligente escribiera código por si solo, pero no es el objetivo. Machine Learning no es lograr que el software se programe a si mismo. Tiene que ver más con entrenar lo suficiente a un sistema para que identifique patrones y pueda predecir resultados. Aquí la conversación si tiene que ver con la privacidad.

    Sin embargo, si ese ente pudiera programar por si mismo (eso sería Artificial Intelligence)….. la conversación tendría que ver con la ética (no tanto la privacidad)… Xq el nuevo programa podría ser un segundo ente inteligente con un propósito totalmente opuesto al del primero.

  • eso de ‘privacidad diferencial’ no existe. eso eslo mismo que el tráfico en las calles. puede que ud no le haga seguimiento a un carro en particular, pero ud puede definir una región, y sabe que si atraviesa el límite de la región y estaba adentro, es porque ahora está afuera, y viceversa. y sabe que la región tiene x áre o le caben x carros, y que si entran n carros, tienen qué salir n carros para que la cantidad de carros se mantenga igual. igual quelos segummientos con proxis, que sería más parecido a esto. ud puede que no sepa lo que haya detrás de una dirección en china, pero puede definir una zona de donde sale x tráfico, y puede definir lo que sale de esa misma zona. ud sabe lo que pase ahí adentro. yo lo llamaría ‘marketing’, y tampoco es una novedad

  • eso de la privacidad es un payasada. me asusto y creo panico en foros porque google puede saber lo que hago, y tengo fotos o el video en el que estamos haciendo cosas con mi novia. y me paniqueo porque entre los millones de personas que también tienen la foto de la novia sin ropa en el celular, quieren es justo mi foto. así que hablo mal de google porque pueden publicar mi foto que tengo en el celular, pero no tengo problema en darle todos los permisos, sin siquiera preguntarme para qué un programa de linterna necesita mi ubicación gps, pero si es la aplicaciónd emoda, le doy permisos. y esa aplicación a la que sí no tuve problema en darkepermisos, pero esla aplicación de moda y me parece peor decir que no sé de qué se trata la aplicación, depronto sabe lo mimo que google, y no porque tenga acceso a los datos de google, sino porque corre en un celular con gps, cámara, micrófono y demás, y yo le di ermiso de usar esas cosas, así ni siquiera me haya preguntado para que necesita esos permisos, y sin necesitarlos aparentemente. y así, no al fulanito anónimo que tiene fotos dela novia en el celular, sino a la persona que sí saben quién es y con un ataque ditrigido a esa persona, terminan las fotos de x actriz empelota en internet. y la actriz x preguntándose cómo consiguieron las fotos
    igualq ue el fbi con un teléfono. depronto había formas muy sencillas y triviales de conseguir la información. perof ormas en las que no se creara pánico, y que a gente siguiera en su burbujita, y que no se preguntaran si entonces quedaban expuestos por andar con un celular.,. depronto no muchas. entonces mejor seguir tramando a la gente y hacer un ejercicio que más que tecnología tuvo qué ver con relñaciones públicas.
    por alguna razón como que recuerda a hombres de negro, cuando k está reclutando a j. la gente se escandalizó con lo de la tierra redonda. quñe importa la forma de la tierra, siempre y cuando no me cambien lo que yo sé. y qué importa si es redonda, si creyendo que es plana yo sé a qué atenerme. puede que incluso sepamos que es un engaño, pero preferimos ignorarlo. y que todo siga como está, y no me cambien la ilusión de la forma como percibo las cosas

    editado: y por vivir en esa ilusión, preferimos sabotear cosas que sí pueden ser importantes, como lo del terrorismo

Archivos