Skip to content

AILAB-CEFET-RJ/jcd_mc05

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

12 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

MC05 - Large Language Models and Agents

Short Course - JCD 2026
Autores: Bruno Menezes (LNCC), Eduardo Bezerra (CEFET/RJ)

Slido

https://app.sli.do/event/wrY3XgnsLvwArzwyaaXRmL

Sobre

Este repositório reúne materiais e um exemplo prático do minicurso MC05 - Large Language Models and Agents, com foco em fundamentos e aplicações de LLMs, incluindo implementação de agentes.

Carga Horária e Horários

  • Carga horária total: 4.5 horas
  • 09 de fevereiro de 2026: 11:00 às 12:00
  • 10 de fevereiro de 2026: 13:30 às 15:00
  • 11 de fevereiro de 2026: 15:30 às 17:00

Objetivo

Apresentar, de forma concisa e aplicada, os fundamentos conceituais e práticos dos Large Language Models (LLMs), destacando a evolução dos Transformers e inovações recentes em inferência e ajuste fino. O minicurso oferece uma visão atualizada do ecossistema de modelos abertos (LLaMA 3, Qwen2, Mixtral, DeepSeek, entre outros), equilibrando base teórica essencial e demonstrações práticas de geração e fine-tuning, com foco em eficiência, alinhamento e aplicações científicas.

Ementa

  • Introdução aos LLMs: panorama 2023-2025, evolução, impacto e ecossistema open-source.
  • Núcleo do Transformer: atenção, embeddings e normalização, compreensão conceitual sem excesso matemático.
  • Variações modernas: Mixture of Experts (MoE), Rotary Embeddings e Attention Scaling (visão sintética e aplicada).
  • Controle e inferência: parâmetros de geração (temperatura, top-p) e gerenciamento de contexto (KV cache, expected-attention, cache merging).
  • Prática 1 - Inferência Interativa: experimentação guiada com prompts e parâmetros de geração, explorando variação de temperatura, top-p e raciocínio via chain-of-thought.
  • Prompt engineering e in-context learning: few-shot, self-consistency e limites de contexto.
  • Pré-treinamento e otimização: datasets em larga escala, quantização (FP8, INT4) e eficiência computacional.
  • Ajuste fino supervisionado (SFT) e métodos eficientes: LoRA 2, QLoRA e estratégias em três estágios para fine-tuning de modelos quantizados.
  • Prática 2 - Simulação de Fine-Tuning: demonstração simplificada de pipeline LoRA/QLoRA, seleção de camadas e visualização de pesos adaptados.
  • Alinhamento de preferências: DPO, RLHF, GRPO e abordagens emergentes de raciocínio (DeepSeek-R1, raciocínio via RL).
  • Avaliação moderna (2024-2025): MMLU-Pro/Pro+, AIME-24/25, LiveBench e GPQA; riscos de contaminação e limitações do LLM-as-a-judge.
  • Tendências e desafios em LLMs abertos: interoperabilidade, governança e impacto científico.
  • Interaction Patterns.
  • Tool Calling.
  • RAG.

Estrutura atual do repositório

  • tool-calling/demo_langchain_react.py: exemplo de agente ReAct com LangChain (AgentExecutor clássico).
  • tool-calling/demo_langgraph_react.py: variante do exemplo usando LangGraph/LangChain create_agent.
  • tool-calling/demo_langgraph_react_pydantic.py: variante com validação de entrada das tools usando Pydantic.
  • rag/chunking.py: exemplo introdutório de chunking para a parte de RAG.
  • requirements.txt: dependências Python do projeto.
  • tool-calling/docs/demo_langchain_react.md: explicação didática da anatomia de um agente no LangChain.

Organização do minicurso

  • tool-calling/: materiais e demos da parte de Tool Calling.
  • rag/: materiais e demos da parte de RAG.

Material da aula

  • Anatomia do agente (LangChain): tool-calling/docs/demo_langchain_react.md
  • Anatomia do agente (LangGraph/LangChain create_agent): tool-calling/docs/demo_langgraph_react.md

Instalação (pip)

  1. (Opcional, recomendado) Crie e ative um ambiente virtual:
python -m venv .venv
source .venv/bin/activate
  1. Instale as dependências:
pip install -r requirements.txt
  1. Configure a chave da OpenAI no arquivo .env:
OPENAI_API_KEY=cole_sua_chave_aqui

Execução do exemplo

python tool-calling/demo_langchain_react.py
python tool-calling/demo_langgraph_react.py
python tool-calling/demo_langgraph_react_pydantic.py
python rag/chunking.py

Bibliografia

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published