¿Qué es Prompting y los módelos LLM?

2024-08-14

¿Qué es Prompting?

Prompting es un término que se utiliza en el campo de la inteligencia artificial y, en particular, en el uso de modelos de lenguaje como GPT (Generative Pre-trained Transformer). Se refiere al proceso de proporcionar una "instrucción" un modelo de lenguaje natural (LLM) para generar una respuesta o realizar una tarea específica.

¿Qué son los Modelos de Lenguaje Natural (LLM)?

Los modelos de lenguaje natural son algoritmos entrenados en grandes cantidades de texto para predecir o generar palabras, frases o incluso párrafos enteros basados en una secuencia de texto dada. Estos modelos han sido diseñados para entender la estructura y los patrones del lenguaje humano y para generar respuestas coherentes y relevantes. 

Estos modelos son parte de una subdisciplina del machine learning conocida como procesamiento del lenguaje natural (NLP).

Ejemplos de Modelos de Lenguaje

  • GPT (Generative Pre-trained Transformer): Este es uno de los modelos más conocidos en el contexto de prompting. Desarrollado por OpenAI, GPT es un modelo de lenguaje que ha sido entrenado en grandes cantidades de texto y puede generar respuestas detalladas y contextualmente relevantes basadas en los prompts que recibe.
     
  • BERT (Bidirectional Encoder Representations from Transformers): BERT es otro modelo de lenguaje que es especialmente bueno en tareas de comprensión del lenguaje, como la clasificación de texto, la respuesta a preguntas, y la traducción automática. Aunque se utiliza más para comprender el texto que para generarlo, BERT también puede ser utilizado en algunos contextos de prompting.
     
  • T5 (Text-To-Text Transfer Transformer): T5 es un modelo que convierte todas las tareas de procesamiento del lenguaje natural en problemas de traducción de texto a texto. Por ejemplo, una tarea de clasificación se convierte en "clasificar: [texto]", y el modelo devuelve la clase correspondiente.
     
  • Transformer-based Models: Estos son la base de muchos de los modelos de lenguaje modernos. Los Transformers permiten a los modelos procesar y generar texto de manera más eficiente y efectiva que las arquitecturas anteriores, como las redes neuronales recurrentes (RNN).

¿Cómo funciona el Prompting?

Cuando interactúas con un modelo de lenguaje, le das un prompt, que es básicamente un texto de entrada que describe lo que quieres que haga el modelo. Dependiendo de cómo esté formulado el prompt, el modelo genera una salida que puede ser un texto, una respuesta a una pregunta, la continuación de una historia, un código de programación, o cualquier otra forma de contenido que el modelo haya sido entrenado para producir.

Tipos de Prompting

Simple Prompting: Se refiere a instrucciones directas y específicas, por ejemplo, "Escribe un resumen de este artículo".
 

Few-Shot Prompting: Aquí se proporcionan ejemplos junto con el prompt para guiar al modelo sobre cómo debería ser la salida. Ejemplo: "Aquí hay un ejemplo de cómo resumir un artículo: [Ejemplo]. Ahora, resume este artículo: [Texto]".
 

Zero-Shot Prompting: No se proporciona ningún ejemplo, sólo una instrucción directa, confiando en que el modelo podrá generar una respuesta correcta basándose en su entrenamiento previo.

Prompting se ha vuelto especialmente relevante con el auge de modelos avanzados de lenguaje que se utilizan en aplicaciones comerciales, investigativas y creativas.

¿Qué prácticas se pueden aplicar para obtener mejores resultados?

Para obtener mejores resultados al utilizar prompting en modelos de lenguaje como por ejemplo GPT, hay varias prácticas que puedes aplicar. Aquí te dejo algunas estrategias efectivas:

1. Ser Claro y Específico

  • Define claramente la tarea: En lugar de dar instrucciones vagas, sé específico sobre lo que esperas. Por ejemplo, en lugar de decir "Resume este texto", puedes decir "Resume este texto en tres oraciones, resaltando los puntos clave".
  • Instrucciones precisas: Si el resultado que buscas tiene un formato específico (como un título, una lista, o un fragmento de código), asegúrate de indicarlo en el prompt.

2. Utilizar Ejemplos (Few-Shot Prompting)

  • Proporciona ejemplos: Si el modelo no está respondiendo de la manera que deseas, incluye uno o más ejemplos en tu prompt. Esto ayuda al modelo a entender mejor el contexto y el tipo de respuesta que esperas.
  • Estructura de ejemplos: Presenta ejemplos en un formato claro y consistente. Ejemplo: "Aquí hay un ejemplo de cómo resumir: [Ejemplo]. Ahora resume este texto: [Texto]".

3. Experimentar con Diferentes Formulaciones

  • Reformular el prompt: Si no estás obteniendo los resultados deseados, prueba reformular la pregunta o instrucción. A veces, pequeños cambios en el wording pueden hacer una gran diferencia en la calidad de la respuesta.
  • Iterar y ajustar: No te limites a un solo prompt. Experimenta con diferentes formulaciones y observa cómo cambian los resultados.

4. Especificar Formatos de Respuesta

  • Formato de salida: Si quieres una respuesta en un formato particular, explícitamente pídelo. Por ejemplo, "Lista tres beneficios de usar prompting en IA:" o "Escribe una introducción breve seguida de un esquema en viñetas".
  • Estructura de respuestas largas: Si necesitas una respuesta detallada, pide que la información esté estructurada en secciones o párrafos específicos.

5. Aplicar Preguntas de Refinamiento

  • Preguntas de seguimiento: Después de obtener una primera respuesta, utiliza preguntas de seguimiento para refinar o expandir la información. Por ejemplo, después de un resumen, podrías pedir "Ahora, proporciona más detalles sobre el segundo punto".
  • Corrección de errores: Si detectas que el modelo hizo un error, puedes incluir en el prompt una corrección o una indicación de lo que se espera, por ejemplo, "Reescribe la respuesta sin mencionar [elemento incorrecto]".

6. Controlar la Longitud de la Respuesta

  • Limitar la longitud: Si quieres una respuesta concisa, indica el número de palabras o frases que deseas. Por ejemplo, "Describe los beneficios del prompting en no más de dos oraciones".
  • Permitir expansiones: Si necesitas una respuesta detallada, indica que el modelo puede extenderse o proporcionar más detalles.

7. Contextualizar la Pregunta

  • Añadir contexto relevante: Proporciona al modelo toda la información necesaria en el prompt para asegurarte de que entiende el contexto de la tarea. Ejemplo: "En el contexto de la educación en línea, menciona tres desafíos principales".
  • Predefinir términos: Si estás trabajando con términos o conceptos específicos, defínelos en el prompt para evitar malentendidos.

8. Iterar Basado en Resultados

  • Revisión y mejora: Revise las respuestas generadas y use esos insights para ajustar y mejorar tus prompts en iteraciones sucesivas.
  • Feedback loop: Si estás utilizando el modelo en un entorno de producción, considera implementar un sistema de feedback para mejorar continuamente la calidad de los prompts.

9. Usar Comandos Directivos

  • Direcciones explícitas: Comienza el prompt con una directiva clara, como "Por favor", "Genera", "Lista", "Explica", etc., para guiar mejor al modelo en su tarea.
  • Preguntas cerradas: Cuando busques respuestas específicas, puedes estructurar el prompt para obtener respuestas más cerradas o precisas, por ejemplo, "¿Es el prompting una técnica útil? Sí o no".

Preguntas comunes sobre prompting y LLMs

¿Cuando compartes información con un prompt este puede aprender de él? 

No, los modelos de lenguaje como GPT no aprenden de los prompts que se les envían durante una interacción normal. Estos modelos funcionan en un modo de "inferencia", lo que significa que generan respuestas basadas en el conocimiento adquirido durante su entrenamiento previo. Cada vez que interactúas con el modelo, este no retiene ni memoriza la información de esa interacción específica para futuras consultas.

¿Qué es Inferencia? 

Es cuando el modelo está "leyendo" y "respondiendo" en tiempo real a los prompts que le das, utilizando el conocimiento ya adquirido. No se ajusta ni se modifica por la información que le das en ese momento.

¿En qué consiste el entrenamiento de un LLM?: 

Este es el proceso en exponer al modelo de lenguaje natural a  grandes cantidades de datos para ajustar sus parámetros internos. Una vez que este proceso ha finalizado, el modelo entra en el modo de inferencia.

¿Cómo se maneja la seguridad y privacidad de los datos?

Debido a que los modelos en modo de inferencia no almacenan ni recuerdan las interacciones individuales, esto ayuda a proteger la privacidad y seguridad de los datos que se comparten con ellos. Cada sesión es independiente y no afecta a futuras interacciones con el modelo.

¿Qué es el Fine-Tuning?

 Existe una excepción en la que los modelos pueden aprender de nuevos datos, y es cuando se someten a un proceso de fine-tuning (ajuste fino). 

Este es un proceso controlado en el que se entrena nuevamente al modelo con un conjunto específico de datos adicionales para ajustar sus respuestas en contextos particulares. Sin embargo, este proceso es intencional y no ocurre durante el uso normal de un modelo.


 

Sobre Mentores Tech

En Mentores Tech, ofrecemos una variedad de servicios de capacitación y asesorías personalizadas diseñadas para ayudarte a alcanzar tus objetivos profesionales. Desde cursos intensivos hasta mentorías uno a uno, te proporcionamos las herramientas que necesitas para tener éxito en el mundo de la tecnología.

Además, en nuestra página web www.mentorestech.com encontrarás una amplia gama de recursos gratuitos que te ayudarán a seguir aprendiendo y creciendo. ¡Visítanos y descubre cómo podemos ayudarte a conseguir el trabajo de tus sueños en tecnología!

 

Últimas publicaciones

Red Flags en tu trabajo y como saber cuando debes irte

02/09/2024

Ver articulo

Herramientas SAST que todo Developer debería conocer

26/08/2024

Ver articulo

¿Por qué es importante trackear tus logros en tu trabajo?

20/08/2024

Ver articulo
Whatsapp Mentores Tech