Coding Agent friendly tool to magically generate text and images.
CLI for generating textual and visual artifacts using LLM. Designed for CI/CD pipelines and AI coding agents.
Idea is simple: need to generate docs, images, or other artifacts as part of CI? This tool integrates seamlessly into scripts and agent workflows.
Tip
This README was generated with trickery trickery generate ./prompts/trickery_readme.md > README.md
If you have rust/cargo installed, you can install trickery with:
cargo install trickery
trickery --helpexport OPENAI_API_KEY=s....d
trickery generate ./prompts/trickery_readme.md > README.mdYou can use trickery with any OpenAI-compatible API gateway (like LiteLLM, Azure OpenAI, or local models) by setting the OPENAI_BASE_URL environment variable:
export OPENAI_API_KEY=your-key
export OPENAI_BASE_URL=http://localhost:4000/v1
trickery generate ./prompts/my_prompt.mdInput file could be any text file, with Jinja2-like template variables, like {{"{{app_version}}"}}. To set this variables, please use -v flag, like -v app_version=1.0.0.
- Input Images - Using images in multimodal prompts
- Image Generation - Generating and editing images
Trickery is built with AI coding agents in mind:
- Rich error messages - Errors include context and recovery hints, so agents can self-correct
- Full help system - Run
trickery help --fullfor comprehensive documentation with examples - Predictable output - Use
--jsonfor structured output that's easy to parse - Template variables - Reproducible prompts with
{{ variable }}substitution - Auto-detection - Input can be file path or direct text, no flags needed
- Exit codes - Proper exit codes for script/agent error handling
Trickery — невеликий інструмент командного рядка для автоматичної генерації текстових артефактів за допомогою великих мовних моделей. Ідея проста: якщо вам потрібно генерувати документацію, звіти або інші тексти в рамках CI/CD, цей інструмент допоможе інтегрувати виклики LLM у ваші скрипти та конвеєри. Доступні варіанти підстановки змінних у шаблонах, можливість роботи з мультимодальними підказками та простий інтерфейс для інтеграції в існуючі процеси.
Якщо маєте питання або пропозиції — ласкаво просимо відкрити issue або pull request у репозиторії.
Why did the developer go broke? Because he used up all his cache.
