- Python и UV
- Docker и Docker Compose
- Jupyter Lab и Jupyter Notebook
- VS Code
- Ollama или LM Studio
- Qdrant - векторная база данных, которая позволяет хранить и обрабатывать векторные представления данных.
- LangChain - библиотека для работы с LLM, которая предоставляет инструменты для создания приложений на основе языковых моделей, в том числе Агентного поиска, обработки текста и других задач. Архитектура
- Jupyter Notebook - интерактивная среда для работы с Python и другими языками программирования. Она позволяет создавать и делиться документами, содержащими код, текст и визуализации.
- Рейтинг на HF https://huggingface.co/models?language=ru&other=text-embeddings-inference&sort=trending
- https://mera.a-ai.ru/ru/text
- https://huggingface.co/spaces/mteb/leaderboard
Для преобразования текстов в векторные представления:
- mxbai-embed-large
- ai-forever/FRIDA
- Qwen/Qwen3-Embedding-8B
- BAAI/bge-m3
- Gemma3 - довольно быстрая и эффективная LLM модель от Google.
- openai/gpt-oss-20b - открытая средняя модель от Open AI
- Qwen/Qwen3-8B - хорошая малая модель от Alibaba
- Запуск на Ollama:
export OLLAMA_TIMEOUT=600s # Увеличиваем таймаут API до 10 минут
export OLLAMA_LOAD_TIMEOUT=10m # Увеличиваем таймаут загрузки модели до 10 минут
ollama pull mxbai-embed-large
ollama run gemma3:12b-it-q4_K_M
ollama servedocker compose up -d