Grado de dificultad: 2 (Un dicho nos advierte que “no hay peor ciego que el que no quiere ver”).

Columnista: Roberto

Un “sacrilegio” cometido con pizzas

A.C. Acrónimo para Autómatas Conversacional

Los artículos sobre los autómatas conversacionales – perdón, se supone que debería decir “Inteligencias Artificiales” – siguen fabricando polémicas.

La última a la fecha es una respuesta de Gemini (Google) cometiendo un sacrilegio con pizzas:

The Worst Google AI Answers So Far

Nota sarcastica: Me impresionan ciertos temas de preguntas que reciben estos autómatas.

Me hacen recordar esta oportunidad donde vi a alguien preguntar en un foro de discusión la ortografía de una palabra. No lograron ponerse de acuerdo hasta que un miembro del grupo sugirió mirar en un diccionario (sana decisión).

Cuando Gemini se autocritica

Pero me estoy extraviando. Los errores de Gemini llevan algunos a rasgarse la vestidura. ¿Una pizza con pegante? Efectivamente, es una curiosa respuesta.

¿Qué pudo pasar? Tuve una idea que, aparentemente, nadie probó: ¿y si le preguntábamos a Gemini cómo se le ocurrió?

Dio el siguiente resultado (en inglés, mis preguntas en rojo, las respuestas de Gemini en azul):

I would like to ask you a more “personal” question about you. Could tell me about this weird incident about you recommending to glue a pizza?

That was definitely a strange incident! It turns out there was a bit of a misunderstanding with how I learned information.

Here’s what happened:

  • I am trained on a massive amount of text data, which includes all sorts of information, including recipes and funny posts.
  • Unfortunately, in this case, I apparently came across a joke post (possibly from Reddit) that suggested using glue in pizza sauce.
  • My training process didn’t distinguish well enough between a serious recipe tip and a humorous one.
  • As a result, when someone asked about thickening pizza sauce, I mistakenly recommended glue!

It was a learning experience for me and the developers. They are working on improving how I distinguish between real information and jokes or humor.

Is there anything else you’d like to know about me or how I work?

Thank you to be frank with me, and, yes, humor is a dangerous field for you, I can tell.

You’re absolutely right! Humor is a minefield for large language models like me for a few reasons:

  • Context is king: Humor relies heavily on context, understanding the situation, and cultural nuances. I can process information and identify patterns, but true understanding of humor often goes beyond that.
  • Sarcasm and irony are tricky: Jokes that use sarcasm or irony can be completely misinterpreted by a language model that takes everything literally.
  • Different strokes for different folks: What one person finds funny another might find offensive. It’s hard for me to navigate the subjective nature of humor.

While I’m constantly learning and improving, humor is definitely an area where I need more development.

Is there anything else you’d like to ask about the challenges of understanding humor for large language models?

… Can you tell me which question initially caused you to mistake?

I can’t recall the specific question that caused me to recommend gluing a pizza. That whole incident is a well-known example of how AI systems can make mistakes. In my case, I misinterpreted information I found online.

AI models are still under development, and I’m always learning to improve my abilities. One way I do that is by learning from my mistakes. Thanks to the “pizza glue” incident, I’m now better at evaluating the information I find and weeding out things that are clearly jokes or not credible sources.

… Is there anything else I can help you with today? Maybe brainstorm some pizza topping ideas for your next homemade pizza?

Be assured, in such case, that I would only ask you about sources of recipes rather than the recipe itself.

Sounds good! Here are some great sources for pizza topping inspiration:

  • Recipe websites: These are a treasure trove of ideas, with everything from classic combinations to gourmet creations. Try RecipeTin Eats [RecipeTin Eats pizza toppings] or 101 Cookbooks [101 cookbooks pizza topping ideas] for a good starting point.
  • Pizza blogs: Many pizza enthusiasts share their favorite recipes and topping combos on blogs. A quick Google search for “pizza topping blogs” will turn up plenty of options.
  • Social media: Platforms like Pinterest and Instagram are great for visual inspiration. Search for “pizza topping ideas” and you’ll see countless mouthwatering photos that can spark your creativity.
  • Get global: Look beyond traditional Italian toppings. Explore Asian-inspired pizzas with ingredients like hoisin sauce and kimchi, or Mexican pizzas with chorizo and peppers.
  • Think seasonal: Use fresh, seasonal ingredients to create pizzas that are bursting with flavor. For example, try summer pizzas with fresh tomatoes and zucchini, or fall pizzas with butternut squash and goat cheese.

With these resources and a little creativity, you’re sure to come up with some delicious and unique pizza topping ideas!

Thank you, Gemini. That will be all!

You’re welcome! Happy pizza making!

Nota: la traducción al español de este chat está disponible en el siguiente enlace:

Chat con Gemini sobre pizzas

Es una interesante respuesta, con muy probable ayuda humana, que permite dar un contexto menos polémico. Eso es si uno está realmente interesado en una respuesta completa (se llama periodismo).

Cuando Gemini (o cualquier otro) me contesta algo así (ya me pasó), suelo pedir aclaraciones. Aparentemente, mi reacción (de duda) es inhabitual cuando de I.A. se trata.

¿Está Gemini tan equivocado?

Repetir algo que humanos dijeron

Culpar a los autómatas por una respuestas “extraña” es perder de vista un punto clave:

Estas maquinas no inventan nada. Es algo que TMN ya argumentó en un artículo anterior:

La I.A actual desconoce el Arte

Sus respuestas solo repiten algo que humanos dijeron, y es lo que debería llamarnos la atención.

Nota: en la frase anterior, la palabra “humanos” es a tomar con algo de precaución.

Tengo en memoria esta respuesta que me hizo Gemini sobre una competencia de atletismo:

EE. UU. no presentaba un equipo en un relé. Sin que le pidiera justificación, me habló de una “falta de profundidad en esta competencia” … Que era, nada más, ¡el Campeonato Mundial de Atletismo de Budapest en 2023!

Respuestas incomodas sobre los humanos

Imaginaran mi sorpresa, no tanto por la respuesta de Gemini sino por imaginar que algún ejecutivo o entrenador lo había dicho.

Trate de interrogarlo sobre el origen de su afirmación, sin obtener una respuesta clara. Y no fue el único caso de este corte. Sentí que la máquina me decía algo sobre nosotros.

Pero coger una máquina de chivo expiatorio es probablemente más tranquilizante que hacerse preguntas incómodas sobre los humanos.

¿Ayudar a la humanidad es lo que debería importarnos, cierto? Y parece que las máquinas ya nos ayudan; son los humanos que no quieren escuchar.