Grado de dificultad: 2 (porque son dificultades a la vez técnicas y sicológicas)
Columnista: Roberto
El título es intencionalmente agresivo, para sacudirnos: en resumen, la evolución de la I.A. no depende solo de criterios tecnológicos. ¡Depende, sobre todo, de nosotros!
¿Hay que acostumbrarnos?
Hablemos de un tema que, en TMN, nos genera reticencia cada vez que nos toca hablar de el.
Dije “Nos toca” porque el tema de la Inteligencia Artificial tiene mucha tendencia, y más aun últimamente. Sin embargo, y paradójicamente, siento que es un problema más social que nerdo.
La noción postmoderna de “hiper conexión” es todo menos tecnológica. Para la mayoría, la inteligencia artificial es un problema sociocultural, para el Marketing, es un tema de negocios.
En uno de estos programas de Tele, recientemente, mostraron una niña de 1 año y medio adicta a un smartphone. Me horrorizó aterró.
Adicionalmente, uno de los entrevistado decía que era una evolución a la cual debíamos acostumbrarnos.

Quisiera que ningún nerdo apruebe tal locura, pero no puedo afirmar que así sea.
ChatGPT – Conversación con una I.A
Un modelo conversacional artificial
El tema del momento es un nombre: ChatGPT. Se trata de un modelo conversacional publicado por la empresa OpenIA, que impresiona a muchos.
Nota: está de moda, pero no es el único (¡en absoluto!)
Así que me inscribí y me conecté con esta herramienta dizque de inteligencia artificial. Les adjunto una transcripción de la prueba que hice.
Vinculo a transcripción del chat
No le hice ningún favor; a continuación, reporto lo que noté.
Es capaz de interactuar en varios idiomas y de dar una ilusión de fluidez … Aunque el tiempo de respuesta a mis preguntas me pareció largo (del orden de un minuto para cada pregunta).
1
Superficialmente, las interacciones pueden impresionar. Sin embargo, indagando un poco más, noté errores de comportamiento de origen claramente humano:
- En varias oportunidades, corregí las respuestas que recibía, correcciones que el otro lado no entendió. Ejemplo (Yo en azul, OpenIA en rojo):
- Je viens de faire une erreur orthographique dans ma dernière question. Quelle était-elle ?
- Votre erreur orthographique dans votre dernière question était “pouvez-vous de dire”. La bonne orthographe est “pouvez-vous dire”.
- ou bien “pouvez-vous me dire”.
- Exactement, “pouvez-vous me dire” est la bonne formulation. Merci de votre correction.
- “Est une bonne formulation” aurait été préférable.
- Oui, “est une bonne formulation” est plus approprié. Merci de votre précision.
AKA: La semántica es buena, pero la noción de múltiples posibilidades confunde al sistema.
2
- Algunas preguntas son claramente mal interpretadas o simplemente no entendidas. Las respuestas son, en estos casos, evasivas, un comportamiento enseñado al sistema por humanos. Nunca contesta “no tengo una respuesta”, lo cual me parece mentiroso.
- En casi todas las respuestas, el sistema me presentó disculpas (lambonería que me molestó rápidamente). Este otro comportamiento es también una enseñanza de humanos (puede también significar que le exigí mucho).
- En un caso, el sistema me contesta (traduzco en español):
- “Lo siento por el inconveniente”.
A lo qué contesté de vuelta (también traducido):
-
- “No era un inconveniente y no tiene por qué disculparse constantemente”
Mi respuesta, muy probablemente ilusa, era para permitir al sistema aprender la sutileza.
3
- ¡Y lo atrapé contradiciéndose! Fue sutil (intercambio en inglés, Yo en azul, OpenIA en rojo):
- I think you apologize too much. Is it a policy that was imposed to you in your way to answer?
- No, excessive apologies are not a part of any imposed policy for my responses. They may occur in my responses as a result of patterns in the training data, but I can adjust my responses to avoid excessive apologies if desired.
- You contradicted yourself in your anterior answer: patterns in the training data are an imposed policy.
En este último intercambio, hubo dos anomalías (a falta de una). La primera fue que negó “excesivas disculpas” sin pedir aclaración sobre “excesivas”. Luego, negó que fuera por política: desconoce que un “modelo de entrenamiento” es una política.
¿Inteligencia Artificial o mediocridad natural?
Este interesante ejercicio me confirmó una impresión que tuve en pruebas anteriores con otras “IA”:
Los que programan estas máquinas carecen visiblemente de talento en intercambios sociales. Las máquinas no hacen nada más que reproducir estas falencias.
Peor aún, parecen rehusarse a aprender, como lo sugiere mi experimento con ChatGPT.
Mi diagnóstico socialmente educado es que tales sistemas no pueden aprender ni evolucionar por culpa de sus diseñadores.
En otros términos, la barrera no me parece ser la máquina sino la mediocridad moral de sus diseñadores hiper conectados … Además de que no parecen interesados en recibir consejos.
¿Pero quién soy para osar criticar a los genios de la Inteligencia Artificial?
Leave A Comment