Short Course - JCD 2026
Autores: Bruno Menezes (LNCC), Eduardo Bezerra (CEFET/RJ)
https://app.sli.do/event/wrY3XgnsLvwArzwyaaXRmL
Este repositório reúne materiais e um exemplo prático do minicurso MC05 - Large Language Models and Agents, com foco em fundamentos e aplicações de LLMs, incluindo implementação de agentes.
- Carga horária total: 4.5 horas
- 09 de fevereiro de 2026: 11:00 às 12:00
- 10 de fevereiro de 2026: 13:30 às 15:00
- 11 de fevereiro de 2026: 15:30 às 17:00
Apresentar, de forma concisa e aplicada, os fundamentos conceituais e práticos dos Large Language Models (LLMs), destacando a evolução dos Transformers e inovações recentes em inferência e ajuste fino. O minicurso oferece uma visão atualizada do ecossistema de modelos abertos (LLaMA 3, Qwen2, Mixtral, DeepSeek, entre outros), equilibrando base teórica essencial e demonstrações práticas de geração e fine-tuning, com foco em eficiência, alinhamento e aplicações científicas.
- Introdução aos LLMs: panorama 2023-2025, evolução, impacto e ecossistema open-source.
- Núcleo do Transformer: atenção, embeddings e normalização, compreensão conceitual sem excesso matemático.
- Variações modernas: Mixture of Experts (MoE), Rotary Embeddings e Attention Scaling (visão sintética e aplicada).
- Controle e inferência: parâmetros de geração (temperatura, top-p) e gerenciamento de contexto (KV cache, expected-attention, cache merging).
- Prática 1 - Inferência Interativa: experimentação guiada com prompts e parâmetros de geração, explorando variação de temperatura, top-p e raciocínio via chain-of-thought.
- Prompt engineering e in-context learning: few-shot, self-consistency e limites de contexto.
- Pré-treinamento e otimização: datasets em larga escala, quantização (FP8, INT4) e eficiência computacional.
- Ajuste fino supervisionado (SFT) e métodos eficientes: LoRA 2, QLoRA e estratégias em três estágios para fine-tuning de modelos quantizados.
- Prática 2 - Simulação de Fine-Tuning: demonstração simplificada de pipeline LoRA/QLoRA, seleção de camadas e visualização de pesos adaptados.
- Alinhamento de preferências: DPO, RLHF, GRPO e abordagens emergentes de raciocínio (DeepSeek-R1, raciocínio via RL).
- Avaliação moderna (2024-2025): MMLU-Pro/Pro+, AIME-24/25, LiveBench e GPQA; riscos de contaminação e limitações do LLM-as-a-judge.
- Tendências e desafios em LLMs abertos: interoperabilidade, governança e impacto científico.
- Interaction Patterns.
- Tool Calling.
- RAG.
tool-calling/demo_langchain_react.py: exemplo de agente ReAct com LangChain (AgentExecutor clássico).tool-calling/demo_langgraph_react.py: variante do exemplo usando LangGraph/LangChaincreate_agent.tool-calling/demo_langgraph_react_pydantic.py: variante com validação de entrada das tools usando Pydantic.rag/chunking.py: exemplo introdutório de chunking para a parte de RAG.requirements.txt: dependências Python do projeto.tool-calling/docs/demo_langchain_react.md: explicação didática da anatomia de um agente no LangChain.
tool-calling/: materiais e demos da parte de Tool Calling.rag/: materiais e demos da parte de RAG.
- Anatomia do agente (LangChain):
tool-calling/docs/demo_langchain_react.md - Anatomia do agente (LangGraph/LangChain
create_agent):tool-calling/docs/demo_langgraph_react.md
- (Opcional, recomendado) Crie e ative um ambiente virtual:
python -m venv .venv
source .venv/bin/activate- Instale as dependências:
pip install -r requirements.txt- Configure a chave da OpenAI no arquivo
.env:
OPENAI_API_KEY=cole_sua_chave_aquipython tool-calling/demo_langchain_react.py
python tool-calling/demo_langgraph_react.py
python tool-calling/demo_langgraph_react_pydantic.py
python rag/chunking.py- Bezerra, Eduardo. Introduction to LLM-Based Agents. DOI: https://doi.org/10.5753/sbc.17956.8.2