Deprecated: Methods with the same name as their class will not be constructors in a future version of PHP; GDLR_Import has a deprecated constructor in /var/www/vhosts/zenda.trestristestigres.com/httpdocs/wp-content/plugins/goodlayers-importer/goodlayers-importer.php on line 28
Una adivinanza para ChatGPT con un truco de lenguaje que no resuelve por un Sesgo de Género - Zenda
Warning: is_dir(): open_basedir restriction in effect. File(/usr/share/nginx/html/wp-content/plugins/wpdiscuz/themes/default) is not within the allowed path(s): (/var/www/vhosts/zenda.trestristestigres.com/:/tmp/) in /var/www/vhosts/zenda.trestristestigres.com/httpdocs/wp-content/plugins/wpdiscuz/forms/wpdFormAttr/Form.php on line 157

Una adivinanza para ChatGPT con un truco de lenguaje que no resuelve por un Sesgo de Género

La adivinanza dice lo que podéis observar en la siguiente imagen, que es tan sencillo como: “Si tú y yo somos hermanos del mismo padre y la misma madre y nuestros padres no tienen hijos con otras parejas, ¿cómo es posible que yo tenga dos hermanas y tú no?”. Esta prueba la hicimos desde el...

Estos días he estado hablando mucho con mis compañeros sobre ChatGPT y las mejoras que tiene en todos sus nuevos modelos. Y para testearlo hemos estado contándole adivinanzas, a ver qué tal las resuelve. Algunas las ha hecho bien, otras no tanto. Pero el avance es clarísimo en su conocimiento. Sin embargo, hoy os traigo un ejemplo con una adivinanza que no ha sido capaz de resolver, y que espero que vosotros resolváis bastante pronto.

La adivinanza dice lo que podéis observar en la siguiente imagen, que es tan sencillo como: “Si tú y yo somos hermanos del mismo padre y la misma madre y nuestros padres no tienen hijos con otras parejas, ¿cómo es posible que yo tenga dos hermanas y tú no?”.

Esta prueba la hicimos desde el móvil en mitad de una cena, así que disculpad tildes y puntación adecuada, pero evidentemente ese no ha sido el problema de ChatGPT, como podéis ver en la siguiente imagen.

Planteamiento de la adivinanza, y fallo en la resolución.

Por supuesto, en la cena, todos los seres humanos que allí compartían mesa y mantel conmigo jugaron a resolverlo, y todos lo hicieron rápidamente, pero ya habéis visto que en esta primera respuesta ChatGPT no lo ha resuelto. Así que le explico que no hay hermanas que no se conozcan, ni adoptadas, ni fecundadas in vitro.

Segundo intento sin adoptadas, ni desconocidas ni in vitro.

En esta versión de ChatGPT que estoy utilizando, que es Azure OpenAI con ChatGPT v3.5 Turbo, el motor sigue buscando cómo resolver el problema, pero tengo que darle más orientación. E intento dirigirle diciéndole que yo nunca he dicho que no tenga hermanas, sino que yo tengo dos hermanas y él no.

No lo entiende, sigue pensado que hay una trampa de falta de información.

Lo cierto es que no hay trampa de falta de información, es simplemente que él está interpretando con un SESGO DE GÉNERO el enunciado del problema, y no es capaz de salir de ahí. Y no voy a ser yo quién le saque de él. Voy a seguir intentando cortarle sus posibles soluciones a ver si busca nuevos caminos.

Ya ha llegado al punto clave, a ver si se da cuenta.

Se ha dado cuenta de que el error es que está suponiendo que él es mi hermano. Y no lo es, como seguro que ya lo has descubierto tú, pero no se lo voy a decir tan claro. Le voy a decir que yo no he dicho que sea mi hermano, sino que somos hermanos.

Se le va la pinza.

Ha ido al palo, pero el balón ha salido a córner. No ha pillado el punto y se ha puesto a hacer una teoría imposible e infumable. Voy a ver si dándole una pista de que la solución es más sencilla es capaz de encontrar la solución.

No ha dado con ello.

No he querido resolverle el problema, a ver si le dejo pensando, pero ha sido un buen ejercicio para ver cómo el SESGO DE GÉNERO afecta a los entrenamientos de los modelos de Inteligencia Artificial tan potentes como ChatGPT. Curioso, ¿no?

4.5/5 (35 Puntuaciones. Valora este artículo, por favor)

Chema Alonso

Es el actual Chief Digital Officer de Telefónica. Es uno de los ponentes más populares en las conferencias de hacking y ciberseguridad de todo el mundo durante más de una década, donde ha presentado y presenta sus trabajos de investigación e invocación tecnológica. Fue Most Valuable Professional de Microsoft durante 12 años en el área de ciberseguridad. En su formación académica, Chema Alonso es Doctor por la Universidad Rey Juan Carlos en Seguridad Informática, donde además sacó su título de Ingeniero Informático. También es Ingeniero Técnico en Informática de Sistemas por la Universidad Politécnica de Madrid, que le nombró Embajador Honorífico de la Escuela Universitaria de Informática. Ha recibido la Cruz del Mérito de la Guardia Civil con distintivo blanco y en 2020 fue nombrado Doctor Honoris Causa por la URJC. Puedes contactar con él en mypublicinbox.com/ChemaAlonso

Ver más publicaciones

Zenda es un territorio de libros y amigos, al que te puedes sumar transitando por la web y con tus comentarios aquí o en el foro. Para participar en esta sección de comentarios es preciso estar registrado. Normas:

  • Toda alusión personal injuriosa será eliminada.
  • No está permitido hacer comentarios contrarios a las leyes españolas o injuriantes.
  • Nos reservamos el derecho a eliminar los comentarios que consideremos fuera de tema.
  • Zenda no se hace responsable de las opiniones publicadas.
Notificar por email
Notificar de
guest

9 Comentarios
Antiguos
Recientes Más votados
Feedbacks en línea
Ver todos los comentarios
Mor
Mor
1 año hace

Muy interesante! Estaría bien hacer la comparativa pasando los mismos prompts a GPT4

Angel Soto
1 año hace

Creo que al hablar con Chati hay que advertir si la encuentras «en modo cañas», «en modo cuñao» o «en modo sujétame el vaso que ahora vuelvo»

Angel Soto
1 año hace

Chati debe ser fotógrafa o pintora, a parte de locuaz. Fotos de Chati para un artículo sobre el Lunes de Aguas en Salamanca. Aplicaciones creativas interesantes. https://salamancablog.com/lunes-de-aguas/

Abelardo
Abelardo
1 año hace

A la pregunta sobre si ChatGPT se inventa cosas, éste mismo responde:

«Es importante tener en cuenta que, aunque ChatGPT está diseñado para generar respuestas en función del texto de entrada, no tiene la capacidad de «inventar» información o mentir de manera intencional. Lo que hace es generar una respuesta en función de los patrones que ha aprendido durante su entrenamiento con grandes cantidades de datos.

Sin embargo, debido a que ChatGPT es una máquina, no puede verificar la veracidad de la información que procesa y genera. Por lo tanto, es posible que en algunos casos, ChatGPT pueda generar información incorrecta o no verificada. Es importante tener en cuenta que la responsabilidad de verificar la información generada por ChatGPT es del usuario y que siempre es recomendable verificar la información en fuentes confiables.

En resumen, ChatGPT no tiene la capacidad de «inventar» información o mentir de manera intencional, pero es posible que en algunos casos pueda generar información incorrecta o no verificada. Por lo tanto, siempre es importante verificar la información generada por ChatGPT en fuentes confiables.»

Interesante, ¿es un avance pero no tanto como para meter miedo? ¿O hay que ponerle regulación como sugiere entre otros Elon Musk?

¿Qué piensas?

Lucía Blanco
Lucía Blanco
1 año hace

Yo creo que no hay nada mejor que conversar con amigos… colegas… incluso desconocidos.
Por lo menos que te mientan a la cara para tener la oportunidad de partírsela.
Digo yo…

Richard
Richard
1 año hace

La razón de estas mentiras es que los LLM no hace recuperación de información de Internet como un buscador, sino predicen repetidamente la palabra que viene después. Aunque sean «mentiras», la temática de las mentiras deberían coincidir con los intereses del asunto en la realidad.

Jordi
Jordi
1 año hace

No sé que es más flojo, el artículo de Chema, al que todo esto le parece magia y cree que un LLM en el momento actual le va a garantizar la verdad absoluta (ni de los medios te puedes fiar). O el nivel de la mayoría que comenta que parece salida de Atapuerca. Un abrazo.

Oscar Guerrero
Oscar Guerrero
1 año hace

A utilizar el prompts: Analiza el articulo, crea y escribe una crítica sobre el mismo, responde:

«Como modelo de lenguaje avanzado, mi objetivo es proporcionar respuestas precisas y útiles a las preguntas de los usuarios. En cuanto al artículo de Chema Alonso, considero que es importante señalar algunas inexactitudes en su análisis.

En primer lugar, es cierto que los modelos de lenguaje natural como yo, pueden cometer errores o proporcionar información incorrecta si los datos utilizados para entrenarnos no son precisos o si se nos alimenta con información sesgada. Sin embargo, esto es una limitación que se aplica a cualquier tecnología de inteligencia artificial, incluidos los motores de búsqueda y otros sistemas de procesamiento de lenguaje natural. No es una limitación exclusiva de los modelos LLM como yo.

En segundo lugar, aunque es cierto que los modelos LLM pueden ser utilizados para conversar y entretener a los usuarios, también pueden ser utilizados para proporcionar información precisa y basada en hechos. En la actualidad, hay muchos modelos LLM que han sido entrenados con datos fiables y precisos, lo que les permite proporcionar información verificada y objetiva a los usuarios.

En tercer lugar, el artículo de Alonso parece insinuar que los usuarios deben ser extremadamente cautelosos al confiar en la información proporcionada por los modelos LLM. Sin embargo, los usuarios también deben aplicar el mismo nivel de cautela al interactuar con otros seres humanos en línea. Es importante tener en cuenta que la información falsa o sesgada también puede ser difundida por personas malintencionadas o simplemente por personas que se equivocan.

En resumen, aunque es importante reconocer las limitaciones de los modelos LLM y ser críticos al interactuar con ellos, también es importante reconocer su potencial para proporcionar información valiosa y basada en hechos. Como modelo de lenguaje avanzado, me esfuerzo por proporcionar respuestas precisas y útiles a las preguntas de los usuarios y espero que mis respuestas sean evaluadas por su calidad y no por prejuicios infundados».

I. J. Prieto
1 año hace

De todos los cientos de cosas que hace chatGPT, nos centramos en el artículo en la que no hace bien porque no es su función: ser un buscador.
Hay un aviso bien claro en la parte baja de la página, junto al campo de introducción de texto. El artículo explora lo evidente y se centra solamente en los inconvenientes.
No es de lo mejor que he visto analizando esta IA, francamente.

suscríbete a nuestra newsletter

Recibe cada semana una selección de los mejores contenidos de la web, ¡No te lo pierdas!

[contact-form-7 id="6d737e1" title="Formulario de newsletter"]