Grado de dificultad: 2 (Es una discusión filosófica sobre un tema difícil: la duda).
Columnista: Roberto
Cuando escribí un artículo sobre Tesla y sus vehículos “autónomos”, accedí a videos que Tesla, orgullosamente, estaba publicando.
Me generaron preguntas filosóficas sobre la Inteligencia Artificial.
Preguntas sobre el caso Tesla
La cuestión del piso mojado
Hice un ejercicio de análisis sencillo.
En uno de estos videos, un vehículo para en una intersección, detectando una señal “Pare” … Problema: un elemento no parece ser detectado por el vehículo. El piso está mojado.
En tal caso, un conductor (uno que sepa manejar) hará lo siguiente:
- Analizará si el charco es profundo (y si su profundidad es visible),
- Examinará si puede generar una pérdida del control del vehículo,
- Si hay un peatón cercano, tratará de bajar la velocidad y evitar el charco para no salpicarlo. Se llama mostrar algo de civismo.
Además, me hice una pregunta: mucha señalización es horizontal (sobre el piso). Será el vehículo “autónomo” (que no supo detectar la humedad) capaz de leer esta señalización no siempre bien “contrastada”.
Nota: en la frase anterior, “bien contrastada” es una manera optimista de presentar el caso.
Pregunta anexa: ¿qué ocurre con los reductores de velocidad (que son de varios tipos)?
La pelota y el niño
En otros videos, se ve al vehículo pasar otros vehículos parqueados a (relativamente) alta velocidad. Mi reacción de conductor fue: hubiera bajado la velocidad por prudencia.
Siempre hay que imaginar a un niño corriendo de entre los carros, detrás de la pelota que se le escapó.
Este niño será, por supuesto, invisible hasta el último momento…

¿Por cierto, detectaría el vehículo una pelota de tenis que se le atravesara? ¿Interpretaría que un niño podría seguirla?
Otra escena está más contextualizada: el vehículo se mueve en una zona urbana. ¿Será que el vehículo sabe interpretar que está en zona urbana? ¿Tiene consecuencias sobre su comportamiento?
Estamos hablando de preguntas que se hace constantemente un conductor.
Inteligencia Artificial, aprendizaje y basura
La duda y la Inteligencia Artificial
Eso nos lleva al tema de la “Inteligencia Artificial”. La noción de “Deep Learning” está de moda.
Aproveché para leer un par de cosas sobre el tema, y lo que leí me puso (muy) incómodo:
- ¿Qué es el Deep Learning? Guía práctica con ejemplos,
- Artículo Wikipedia en inglés sobre Deep Learning.
Después de analizar el caso Tesla, me faltaba algo: la duda.
Me podrán decir que eso es una discusión filosófica, pero ¿sin duda cómo se define un error?
La duda está ausente de todas las presentaciones sobre Inteligencia Artificial.
Hubo este caso de debilidad generalizada en las técnicas de “reconocimiento facial” que reportábamos:
Reconocimiento facial y confiabilidad
Los algoritmos se revelaron incapaces de reconocer los rasgos de personas de piel oscura.

¿Será que se les olvidó algo a los genios de la Inteligencia Artificial?
Garbage in…
No estoy diciendo que una máquina no pueda aprender. Solo estoy diciendo que no puede aprender con datos que no tiene, o, peor, datos equivocados.
Y resulta que estos datos, son humanos los que los insertan a la máquina. El caso de Tesla es representativo de eso: parece que los ingenieros de Tesla no saben que significa manejar.
Un viejo lema básico de programación dice:
“Garbage In, Garbage Out”.
Traducción: “Si entra basura, sale basura”
Este lema sigue vigente, totalmente.
Leave A Comment