Grado de dificultad: 2 a 3 (Porque hay barreras culturales que pueden entorpecer futuros desarrollos, tales como la noción de respuesta).
Columnista: Roberto
ChatGPT – Tema demasiado tendencia
Escribí el artículo anterior sobre ChatGPT sin pensarlo dos veces, y reconozco que me faltó diplomacia. AKA mi critica poco amena de los desarrolladores de I.A. fue un tanto excesiva (regresaremos más adelante sobre este calificativo).
Sin embargo, no hace mis comentarios menos sinceros.
Otros son más prudentes. Miren, por ejemplo, este profesor (Scott Galloway), confrontado con un periodista mainstream:
Video conseguido en el canal YouTube de CNN
Me tranquilizó ver un especialista tratando (con poco éxito) de calmar el entusiasmo de su interlocutor.
Nota 1: me alivió su manera de evacuar el término “experto”, que no significa mucho.
Nota 2: me enteré de que detrás de OpenIA, diseñador de ChatGPT, está un gigantesco inversionista, Microsoft.
Dialogar (o no) con una máquina
Tres puntos de litigio
Regresemos, entonces, a las quejas que tuve en la prueba de “dialogo”, porque requieren aclaraciones.
Tres fallas me impactaron negativamente en mi conversación con ChatGPT:
- La obsequiosidad de sus respuestas,
- La ausencia de elementos de referencia,
- La mentira equivocación.
(Más una cuarta escondida detrás del segundo ítem)
Los tres están, en mi opinión, organizados por importancias crecientes.
Ítem 1: Máquina obsequiosa
La obsequiosidad tiene que ver con las sistemáticas disculpas que presenta. No sé a qué se debe esta extraña y perturbadora manía de las repetitivas excusas que terminan siendo excesivas.
Podría ser por criterios implementados por defecto, o por mimetismo con datos que fueron comunicados a la máquina. No sería grave si no diera una desagradable impresión de esclavitud.
La queja parece severa en esta etapa temprana. Sin embargo, estoy convencido de que afectará a la dinámica de los intercambios futuros.
Pregunta: ¿Qué parte de lo que hace ChatGPT (y sus predecesores) es “artificial” y qué parte es simplemente humana?
Exclusive: OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic
La duda sigue válida.
Ítem 2: Referencias necesarias
Un importante momento en mi conversación con ChatGPT fue cuando dije que sus disculpas eran excesivas.
Resulta que “excesivas” es un término subjetivo que requiere aclaraciones. La máquina no me pidió ninguna, donde debería haberlo hecho.
En consecuencia, le faltaron los elementos de referencia para hacerme una respuesta válida. Y, sin embargo, contestó (veremos en el análisis sobre el ítem 3 que su respuesta era una confesión).
Es donde se puede notar una inconsistencia en el modo de dialogo: nunca hace preguntas, algo que aceleraría su aprendizaje. Es la cuarta falla que mencionaba, potencialmente mayor.
Ítem 3: ¿Equivocarse o mentir?
En cualquier debate, puede haber momentos donde uno no conoce una respuesta o simplemente se equivoca. Estos momentos son muy reveladores de una actitud.
En la conversación, hubo ese momento: la máquina, claramente por ignorancia, no sabía lo que era una directiva (policy en inglés).
Esta noción es particularmente difícil, dado que él que recibe una directiva puede no saber que la recibió … El caso de la máquina.
Exploré intencionalmente este punto ciego para saber cuál directiva de respuesta estaba implementada en caso de contradicción.
Paso siguiente: pedir aclaraciones
Creo que los diseñadores limitaron el mecanismo a respuestas simples, por comodidad.
Nota: eso, por cierto, es una directiva.
Les permite escaparse diciendo que no se tiene el contexto para responder. En consecuencia, no puede haber ni dialogo ni inteligencia.
Es sutilmente engañoso: la máquina entiende las preguntas y peticiones, y lo demuestra, pero no dialoga realmente.
Así que tenemos esta primera información (que ya conocíamos) sobre el estado el arte. Todavía falta el paso siguiente: que la máquina sepa pedir aclaraciones.
¿Cuándo será? Esta es la (muy interesante) pregunta.
Leave A Comment