Sobre la Inteligencia Artificial

Germán Escobar
5 min readApr 3, 2021

Existe una gran confusión con el término inteligencia artificial. Es un término complicado porque se puede interpretar de muchas maneras.

El problema es que, por un lado, ni siquiera nos hemos puesto de acuerdo en lo que significa “inteligencia” en general. Y, por otro lado, los computadores tienen un truco, y es que pueden hacer cálculos muy rápidos y, de esa forma, “parecer” inteligentes.

¿Es el sistema de recomendación de YouTube inteligente? ¿Es el traductor de Google inteligente? ¿Es un motor de ajedrez como AlphaZero (que hoy le gana fácilmente hasta a los mejores ajedrecistas) inteligente? ¿Es un auto sin conductor inteligente?

Yo pensaría que estos sistemas son inteligentes, pero para muchos una inteligencia artificial es mucho más compleja que eso, es la recreación del comportamiento humano, algo similar a lo que vemos en películas como Ex Machina (Ava), Avengers (Vision) o Terminator (Skynet). Un sistema mucho más inteligente que todas las personas, que podría tiene conciencia propia y experimentar sentimientos.

Es por eso que a finales de los años 50 se introdujo otro término: Machine Learning (en español existen varias traducciones como Aprendizaje de Máquina o Aprendizaje Automático).

El Machine Learning es una técnica que se utiliza para encontrar patrones en información existente, y utilizar esos patrones para predecir, clasificar o generar nueva información. Machine Learning es lo que utilizan los autos sin conductor, varios motores de ajedrez, los sistemas de recomendación, entre muchas otras aplicaciones.

En 1950 Alan Turing propuso una prueba que nos permitiría saber si una máquina podía “pensar”. Como la palabra “pensar” también es confusa y abierta a interpretación, Turing fue más específico y propuso un juego en donde una persona interroga a una maquina (a la inteligencia artificial) y a un humano al mismo tiempo. Si el interrogador no puede diferenciar entre los dos entonces la máquina puede “pensar”.

Desafortunadamente la prueba tiene varios problemas. Por ejemplo, los humanos muchas veces tenemos comportamientos que no son inteligentes, así que la inteligencia artificial tendría que simular esos defectos.

Y ese es precisamente el problema, querer que el sistema se comporte como un humano, que tenga una conciencia y que pueda experimentar alegría, miedo, etc. No tiene mucho sentido crear un sistema así, pero eventualmente podríamos simularlo, aunque seguiría siendo una simulación.

Es más interesante seguir creando soluciones específicas que nos permitan realizar tareas que antes sólo podían hacer los humanos, y que las hagan mejor que nosotros, como conducir un auto, detectar enfermedades, producir medicinas, ser nuestros asistentes, recomendar videos, crear música, entre muchas otras aplicaciones.

Para mí todo esto es inteligencia artificial, no hay necesidad de utilizar otro término como machine learning. Desafortunadamente es un término tan abusado que hasta sería mejor utilizar uno completamente diferente.

¿Legislar la inteligencia artificial?

Hace poco hubo una discusión entre Elon Musk y Mark Zuckerberg sobre los peligros de la inteligencia artificial y si deberíamos legislar su desarrollo.

Elon dice que la inteligencia artificial puede ser incluso más peligrosa que las bombas atómicas: si creamos máquinas más inteligentes que nosotros, se podrían volver en nuestra contra y acabar con la humanidad. Mark cree que esto es alarmista.

Es alarmista. No tiene sentido legislar el desarrollo de la inteligencia artificial en general, lo que sí debemos hacer es legislar sus aplicaciones. Por ejemplo:

  • Los autos sin conductor: los tipos de pruebas que se deben hacer para que una empresa pueda comercializar un auto sin conductor.
  • Los sistemas de recomendación: para que sean más transparentes y puedan ser personalizados por los usuarios.

Y es que ninguna tecnología es buena o mala, depende de cómo la usemos. Hay tres razones por las que una tecnología puede salir mal:

1. Por una mala intención.
2. Por un mal uso.
3. Por una mala implementación.

Pensemos en los autos actuales. Millones de personas mueren en accidentes automovilísticos pero nadie cree que sea culpa de los autos como tal.

Los autos pueden ser usados con mala intención para causar accidentes, pueden tener un mal uso por imprudencia de los conductores (la mayoría de accidentes ocurren por esta razón), o pueden tener problemas de implementación que generan accidentes (p.e. por frenos defectuosos) o daños ambientales.

Lo mismo pasa con la inteligencia artificial. Por un lado va a traer grandes beneficios pero también grandes amenazas.

El peligro de la inteligencia artificial no es que un sistema adquiera conciencia y decida acabar con la humanidad. El peligro es que los humanos creemos o utilicemos estos sistemas con mala intención, les demos un mal uso, o los implementemos mal, con consecuencias mayores o menores.

El punto de la mala implementación es particularmente importante en la inteligencia artificial. Un problema actual es que es difícil predecir y saber por qué muchos de estos sistemas toman las decisiones que toman, particularmente los que están basados en redes neuronales profundas (deep learning). Es un área de investigación actual que nos permitiría tener más control sobre el comportamiento y operación de estos sistemas.

Otra área de investigación actual es la reducción del sesgo en estos sistemas. Los algoritmos de inteligencia artificial utilizan información existente para encontrar patrones, así que aprenden de los mismos sesgos que existan en los datos.

Por ejemplo, si una universidad quiere automatizar su proceso de admisión e históricamente han rechazado a más mujeres que a hombres, es posible que el sistema siga ese patrón en futuros procesos de admisión. Este riesgo se puede mitigar haciendo responsable a los que creen o implementen estos sistemas. En el caso de la universidad, por ejemplo, responder por casos de discriminación independientemente de si utiliza un sistema de inteligencia artificial o no.

En conclusión, la inteligencia humana es muy diferente a la inteligencia artificial, no se pueden comparar directamente. Eventualmente vamos a poder simular una inteligencia humana, pero va a seguir siendo una simulación.

Hoy ya tenemos sistemas de inteligencia artificial que son más inteligentes que nosotros en eso puntual que hacen. Algunas de estas aplicaciones ya están siendo reguladas, otras deben empezar a serlo, pero eso no significa que debamos legislar el desarrollo de la inteligencia artificial como tal.

Desafortunadamente las discusiones actuales se centran en la posibilidad de crear un sistema más inteligente que nosotros, que decida tomar el control y posiblemente exterminarnos. El problema con esto es que no es claro si sea posible crear tal sistema, y además que se vuelva malévolo.

Por otro lado, el sistema superinteligente malévolo desvía la discusión de los retos verdaderamente importantes de los próximos 50 años (como mínimo) y crea pánico y desconfianza en los humildes avances (en comparación) que hemos logrado hasta ahora.

Debemos estar alertas a los peligros de esta tecnología pero sin ser alarmistas. Toda tecnología tiene sus beneficios y sus peligros, y la inteligencia artificial no es diferente en ese sentido.

--

--