Lo que Microsoft descubrió sobre cómo hacerle preguntas a la IA
Pequeños cambios en tus preguntas que logran grandes mejoras en las respuestas
El otro día estaba leyendo un paper de Microsoft Research y me quedé 🤯. Un grupo de investigadores logró que GPT-4 (ya sabes, el cerebro detrás de ChatGPT) diera respuestas mucho mejores. ¿Su secreto? La forma de hacer las preguntas.
En su investigación, Can Generalist Foundation Models Outcompete Special-Purpose Tuning? Case Study in Medicine, el equipo de Microsoft demostró que podían reducir errores en un 27% simplemente mejorando la forma de preguntar. Y lo mejor de todo: estas técnicas funcionan para cualquier tema, desde análisis de negocios hasta filosofía.
Tres formas de preguntar mejor
1. Dynamic Few-Shot (Selección Dinámica de Ejemplos)
Se trata de darle a la IA algunos ejemplos de preguntas y respuestas antes de hacer tu consulta. Pero no cualquier ejemplo - tienen que ser ejemplos relacionados con lo que vas a preguntar.
Digamos que quieres preguntarle a ChatGPT sobre estrategias de marketing digital. En vez de sólo preguntarle:
¿Cuáles son las mejores estrategias para conseguir seguidores en Instagram?
Primero le das 3-5 ejemplos de otras preguntas y respuestas sobre marketing en redes sociales:
P: ¿Cuáles son las mejores horas para publicar en LinkedIn?
R: Las mejores horas son entre 10-11am y 4-5pm en días laborables, cuando los profesionales están más activos...
P: ¿Qué tipo de contenido funciona mejor en TikTok?
R: Videos cortos y entretenidos, tutoriales de menos de 60 segundos y contenido que sigue tendencias actuales...
[Y así con 2-3 ejemplos más relacionados]
AHORA SÍ tu pregunta:
¿Cuáles son las mejores estrategias para conseguir seguidores en Instagram?
¿Por qué funciona mejor? Porque le das a la IA un contexto claro de cómo quieres que te responda. Es como si le dijeras "mira, así es como quiero que me expliques las estrategias de redes sociales". Los investigadores descubrieron que solo con agregar estos ejemplos relacionados, la precisión de las respuestas mejoraba mucho.
2. Self-Generated Chain of Thought (Razonamiento Autogenerado)
La segunda técnica busca que el modelo genere su propio proceso de razonamiento paso a paso. Es como pedirle que piense en voz alta.
Veamos un ejemplo práctico. En vez de preguntar:
¿Cuál sería el mejor precio para mi nuevo curso online de marketing digital?
Le pides que razone paso a paso:
Necesito decidir el precio para mi nuevo curso online de marketing digital.
Por favor, piensa paso a paso:
1. ¿Qué factores debemos considerar para fijar el precio?
2. ¿Cuáles son los precios típicos en el mercado para cursos similares?
3. ¿Cómo afecta el precio a la percepción de valor?
4. Basado en todo esto, ¿qué precio recomiendas?
La diferencia es enorme. En vez de recibir una respuesta rápida tipo "cobra $199", obtienes un análisis detallado que considera múltiples factores. Los investigadores encontraron que esta técnica mejoraba la precisión porque la IA tiene que justificar su razonamiento.
3. Choice Shuffle Ensemble (Consenso por Variación)
La última técnica es hacer la misma pregunta de diferentes formas y buscar patrones en las respuestas. Es como pedir varias opiniones sobre el mismo tema.
¿Por qué funciona? Porque cada vez que reorganizas la pregunta, el modelo la aborda desde un ángulo ligeramente diferente. Al combinar estas perspectivas, obtienes una respuesta más robusta y confiable.
Por ejemplo, si quieres consejo sobre tu estrategia de email marketing, podrías preguntar:
Versión 1:
¿Cuál es la mejor frecuencia para enviar newsletters a mi lista de correos?
Versión 2:
¿Cada cuánto tiempo debería enviar emails a mis suscriptores para mantener el engagement sin saturarlos?
Versión 3:
Para una lista de emails B2B, ¿cuál sería el calendario óptimo de envíos para maximizar la tasa de apertura?
Luego comparas las respuestas y buscas los puntos en común. Si en las tres respuestas la IA menciona que 1-2 veces por semana es ideal para B2B, probablemente sea una recomendación sólida.
El poder de la combinación
Lo más impresionante es que estas técnicas se potencian entre sí. Cuando los investigadores las combinaron, lograron esa increíble reducción del 27% en la tasa de error. Y no solo funcionó en un área específica - probaron estas técnicas en campos tan diversos como ingeniería eléctrica, filosofía, contabilidad y psicología, viendo mejoras consistentes en todos ellos.
¿Por qué esto es importante?
Esta investigación cambia completamente nuestra forma de pensar sobre cómo usamos la IA. No necesitas un modelo especializado o fine-tuned (ya hablaremos de eso en otro post) para obtener respuestas expertas - solo necesitas saber cómo preguntar de forma más efectiva.
Es como descubrir que tu celular tiene funciones avanzadas que no estabas aprovechando. El poder siempre estuvo ahí; solo necesitabas saber cómo usarlo.
Lo que significa para nosotros
La belleza de estas técnicas es que son universales. No importa si estás usando GPT-4, Claude, o cualquier otro asistente de IA. Los principios son los mismos:
Dar contexto relevante y específico
Pedir que la IA explique su razonamiento
Obtener varias perspectivas sobre la misma pregunta
Mirando al futuro
Esta investigación abre un mundo de posibilidades. Los investigadores creen que hay más técnicas por descubrir, y que este es solo el comienzo para entender cómo podemos sacarle el máximo provecho a estos asistentes.
Lo que más me emociona de esta investigación es que demuestra algo que siempre he creído: la clave para aprovechar el poder de la IA no está en tener las herramientas más avanzadas, sino en saber cómo usarlas bien.
Nos vemos,
G