12 oscuros secretos de la Inteligencia Artificial

La humanidad ha soñado siempre con algún genio omnisciente y omnipotente que pueda asumir sus cargas de trabajo. Ahora, gracias al arduo trabajo de los científicos informáticos en los laboratorios, tenemos nuestra respuesta a ese sueño en la inteligencia artificial (IA). Si uno cree todo lo anunciado en su promoción publicitaria, la inteligencia artificial puede hacer casi cualquier cosa que su empresa necesite hacer -al menos en parte de lo necesario, en algunas ocasiones.
Sí, las innovaciones en inteligencia artificial son asombrosas. Los ayudantes virtuales como Siri, Alexa o el Asistente de Google parecerían mágicos para un viajero en el tiempo desde hace tan solo diez a quince años. Nuestras palabras son sus comandos y, a diferencia de las herramientas de reconocimiento de voz de la década de los noventa, a menudo dan la respuesta correcta -si evita preguntas complicadas como cuántos ángeles pueden bailar en la cabeza de un alfiler.
Pero a pesar de toda su magia, las inteligencias artificiales aún dependen de la programación de computadoras, y eso significa que sufren de todas las limitaciones que retienen el código más común, como las hojas de cálculo o los procesadores de texto. Hacen un mejor trabajo haciendo malabares con los caprichos estadísticos del mundo, pero en última instancia, siguen siendo solo computadoras que toman decisiones calculando una función y determinando si algún número es mayor o menor que un umbral. Debajo de todo el misterio inteligente y los algoritmos sofisticados hay un conjunto de transistores que implementan una decisión deductiva.
¿Podemos vivir con esto? ¿Tenemos alguna opción? Con el aumento exponencial del ritmo de la inteligencia artificial en todas las industrias, debemos comenzar a aprender a vivir con los siguientes secretos oscuros de la inteligencia artificial.

Mucho de lo que usted encuentra con la inteligencia artificial es obvio

El trabajo más difícil para un científico de inteligencia artificial es decirle al jefe que la IA ha descubierto lo que todos ya sabían. Quizás examinó diez mil millones de fotografías y descubrió que el cielo es azul. Pero si olvidó poner fotos nocturnas en el set de entrenamiento, no se dará cuenta de que oscurece por la noche.
Pero ¿cómo puede una inteligencia artificial evitar las conclusiones obvias? Las señales más fuertes en los datos serán obvias para cualquiera que trabaje en las trincheras, y también serán obvias para los algoritmos informáticos que investigan los números. Serán la primera respuesta que traerá el perro retriever y caerá a sus pies. Al menos los algoritmos no esperan comida como premio.

Es posible que no valga la pena aprovechar los conocimientos detallados de la inteligencia artificial

Por supuesto, las buenas inteligencias artificiales también se fijan en pequeñas diferencias cuando los datos son precisos. Pero el uso de estos pequeños conocimientos puede requerir cambios estratégicos profundos en el flujo de trabajo de la empresa. Algunas de las distinciones sutiles serán demasiado sutiles para que valga la pena perseguirlas. Y las computadoras seguirán obsesionadas con ellas. El problema es que las señales grandes son obvias, y las señales pequeñas pueden producir ganancias pequeñas o incluso inexistentes.

Las computadoras misteriosas son más amenazantes

Si bien los primeros investigadores esperaban que el enfoque matemático de un algoritmo informático diera un aire de respetabilidad a la decisión final, muchas personas en el mundo no están dispuestas a rendirse al dios de la lógica. En todo caso, la complejidad y el misterio de la inteligencia artificial facilitan que cualquiera que no esté satisfecho con la respuesta pueda atacar el proceso. ¿Estaba sesgado el algoritmo? Cuanto más misterio y complejidad hay bajo el capó, más razones para que el mundo sospeche y se enoje.

La IA es principalmente un ajuste de curvas

Los científicos han estado trazando algunos datos ruidosos y trazando líneas a través de los puntos durante cientos de años. Muchos de los algoritmos de inteligencia artificial, en el núcleo de los algoritmos de aprendizaje automático, hacen precisamente eso. Toman algunos datos y trazan una línea a través de ellos. Gran parte del avance proviene de encontrar formas de dividir el problema en miles, millones o tal vez incluso miles de millones de pequeños problemas, y luego trazar líneas a través de todos ellos. No es magia; es solo una línea de montaje de cómo hemos estado haciendo ciencia durante siglos. Las personas a las que no les gusta la IA, y les resulta fácil hacer agujeros en sus decisiones, se centran en el hecho de que a menudo no hay una teoría profunda o un andamiaje filosófico para dar credibilidad a la respuesta. Es solo una estimación aproximada de la pendiente de alguna línea.

Recopilar datos es el verdadero trabajo

Todos los que han comenzado a estudiar ciencia de datos comienzan a darse cuenta de que no hay mucho tiempo para la ciencia, porque encontrar los datos es el trabajo real. La inteligencia artificial es una prima cercana de la ciencia de datos y tiene los mismos desafíos. Es un 0,01% de inspiración y un 99,99% de transpiración sobre formatos de archivo, campos de datos faltantes y códigos de caracteres.

Necesita datos enormes para llegar a conclusiones más profundas

Algunas respuestas son fáciles de encontrar, pero las respuestas más profundas y complejas a menudo requieren cada vez más datos. A veces, la cantidad de datos aumentará exponencialmente. La inteligencia artificial puede dejarle con un apetito insaciable por más y más bits.

Está atascado con los sesgos de sus datos

Al igual que los habitantes de la cueva de Platón, todos estamos limitados por lo que podemos ver y percibir. Las inteligencias artificiales no son diferentes. Están explícitamente limitadas por su conjunto de entrenamiento. Si hay sesgos en los datos -y habrá algunos- la inteligencia artificial los heredará. Si hay agujeros en los datos, habrá agujeros en la comprensión del mundo por parte de la inteligencia artificial.

La inteligencia artificial es un agujero negro para la electricidad

La mayoría de los buenos juegos tienen un nivel o un objetivo finales. Sin embargo, las inteligencias artificiales pueden volverse cada vez más complejas. Mientras esté dispuesto a pagar la factura de la luz, seguirán produciendo modelos más complejos con más nodos, más niveles y más estados internos. Quizás esta complejidad adicional sea suficiente para que el modelo sea realmente útil. Quizás algún comportamiento sensible emergente surja de la próxima ejecución. Pero tal vez necesitemos una colección aún mayor de GPUs funcionando durante la noche para capturar realmente el efecto.

La inteligencia artificial explicable es solo otra tortuga

Los investigadores de inteligencia artificial han estado dedicando más tiempo a tratar de explicar qué está haciendo la inteligencia artificial. Podemos profundizar en los datos y descubrir que el modelo entrenado se basa, en gran medida, en estos parámetros que provienen de un rincón particular del conjunto de datos. A menudo, sin embargo, las explicaciones son como las que ofrecen los magos que explican un truco realizando otro. Responder a la pregunta de por qué es sorprendentemente difícil. Puede mirar los modelos lineales más simples y observar los parámetros, pero a menudo se quedará rascándose la cabeza. Si el modelo afirma que se multiplique la cantidad de millas recorridas cada año por un factor de 0,043255, quizás se pregunte por qué no 0,043256 o 0,7, o tal vez algo escandalosamente diferente como 411 o 10 mil millones. Una vez que esté usando un continuo, todos los números a lo largo del eje pueden ser correctos.
Es como el modelo antiguo en el que la Tierra estaba sentada sobre una tortuga gigante. ¿Y dónde estaba esta tortuga? En el lomo de otra tortuga. ¿Y dónde queda el próximo? Son tortugas hasta el final.

Intentar ser justos es un desafío

Puede dejar la altura fuera del conjunto de entrenamiento, pero la probabilidad de que su programa de inteligencia artificial encuentre algún otro proxy para señalar a las personas más altas, y elegirlas para su escuadrón de baloncesto, es bastante alta. Quizás sea la talla del zapato. O capacidad de alcance. La gente ha soñado que pedirle a una inteligencia artificial neutral que tome una decisión imparcial haría del mundo un lugar más justo, pero a veces los problemas están profundamente arraigados en la realidad y los algoritmos no pueden hacer nada mejor.

A veces, las soluciones son incluso peores

¿Obligar a una inteligencia artificial a ser justa es una solución real? Algunos intentan insistir en que las inteligencias artificiales generan resultados con ciertos porcentajes predeterminados. Ponen su pulgar en la balanza y reescriben los algoritmos para cambiar el resultado. Pero luego la gente comienza a preguntarse por qué nos molestamos con cualquier capacitación o análisis de datos si ya ha decidido la respuesta que desea.

Los humanos son el verdadero problema

En general, estamos contentos con las inteligencias artificiales cuando hay poco en juego. Si tiene diez millones de imágenes para ordenar, se alegrará si algo de inteligencia artificial genera resultados, razonablemente precisos, la mayor parte del tiempo. Por supuesto, puede haber problemas y errores. Algunas de las fallas incluso podrían reflejar problemas profundos con los sesgos de la inteligencia artificial, cuestiones que podrían ser dignas de una tesis de 200 páginas.
Pero las inteligencias artificiales no son el problema. Harán lo que se les diga. Si se ponen quisquillosos y comienzan a generar mensajes de error, podemos ocultar esos mensajes. Si el conjunto de entrenamiento no genera resultados perfectos, podemos dejar de lado el resultado quejumbroso pidiendo más datos. Si la precisión no es tan alta como sea posible, podemos simplemente archivar ese resultado. Las inteligencias artificiales volverán a trabajar y harán lo mejor que puedan.
Los humanos, sin embargo, son un animal completamente diferente. Las inteligencias artificiales son sus herramientas y los humanos serán los que quieran usarlas para encontrar una ventaja y beneficiarse de ella. Algunos de estos planes serán relativamente inocentes, pero algunos serán impulsados por una malicia secreta de antemano. Muchas veces, cuando nos encontramos con una inteligencia artificial mala, es porque es el títere en la cuerda para algún humano que se está beneficiando del mal comportamiento.

Compartir nota:
Twitter
LinkedIn
WhatsApp
Facebook

Contenido exclusivo para socios

¿Todavía no sos socio?