Budowa wnioskującego agenta AI z LlamaIndex: ReAct i Function Agent w Pythonie
Warsztat dla mid-level developerów, którzy chcą krok po kroku zbudować w Pythonie agenta wnioskującego w LlamaIndex, porównać ReActAgent i FunctionAgent, nauczyć się projektowania narzędzi, debugowania, guardrailów oraz złożyć na końcu pełny listing działającego agenta.
Praktyczny kurs warsztatowy pokazujący, jak od podstaw zaprojektować, zaimplementować i uruchomić agenta AI wnioskującego z użyciem biblioteki LlamaIndex. Uczestnik przejdzie przez pełny proces: od wyboru architektury agenta, przez definiowanie narzędzi w Pythonie, projektowanie instrukcji systemowych, obsługę pamięci i stanu, aż po testowanie, diagnozowanie błędów i składanie kompletnego rozwiązania end-to-end. Kurs celowo zestawia dwa podejścia wspierane przez aktualną dokumentację LlamaIndex: FunctionAgent, preferowany dla modeli z natywnym function/tool calling, oraz ReActAgent, przydatny wtedy, gdy chcemy jawnego cyklu reason-act lub pracujemy z modelami bez natywnego function callingu. Warsztat opiera się na aktualnych wzorcach z dokumentacji LlamaIndex, gdzie agenci są budowani z pakietu workflow, narzędzia mogą być zwykłymi funkcjami Pythona albo QueryEngineTool, a szerszy kontekst architektoniczny osadzony jest w event-driven Workflows. Oprócz samego kodu kurs tłumaczy, dlaczego konkretne decyzje projektowe są poprawne, jakie błędy pojawiają się najczęściej oraz jak ich unikać w praktyce produkcyjnej.
Czego się nauczysz
- Wyjaśnisz różnice między ReActAgent i FunctionAgent oraz dobierzesz właściwy typ agenta do możliwości modelu LLM.
- Zbudujesz w Pythonie działającego agenta LlamaIndex opartego o własne funkcje-narzędzia oraz poprawnie opisane sygnatury i docstringi.
- Zaprojektujesz instrukcję systemową, opisy narzędzi i kontrakt wejścia/wyjścia tak, aby agent częściej wybierał właściwe akcje.
- Dodasz stan rozmowy i kontekst wykonania z użyciem mechanizmów workflow oraz nauczysz się kontrolować przebieg wieloetapowego wnioskowania.
- Zdiagnozujesz najczęstsze błędy: zły dobór narzędzia, halucynowane argumenty, pętle agentowe, zbyt szerokie prompty i nieczytelne opisy funkcji.
- Porównasz pełne artefakty before/after: słabo zaprojektowane i dobrze zaprojektowane narzędzia, prompty oraz przebiegi decyzji agenta.
- Zintegrujesz narzędzia funkcyjne z narzędziami opartymi o QueryEngineTool, aby agent potrafił korzystać zarówno z logiki aplikacyjnej, jak i warstwy wiedzy.
- Przeprowadzisz testy manualne i scenariuszowe agenta, dodasz logowanie zdarzeń i przygotujesz checklistę jakości przed wdrożeniem.
- Złożysz na końcu kursu kompletny, pełny listing całego agenta wraz z omówieniem każdej sekcji kodu i powodów stojących za architekturą.
Wymagania wstępne
Znajomość Pythona na poziomie średnio zaawansowanym, podstawy pracy z API modeli LLM, umiejętność uruchamiania projektów w virtualenv lub uv, podstawowa znajomość JSON i typowania funkcji. Przydatne będzie doświadczenie z prompt engineeringiem oraz podstawowa wiedza o RAG, ale kurs prowadzi krok po kroku również przez decyzje architektoniczne. Uczestnik powinien mieć skonfigurowane środowisko Python 3.10+ oraz klucz API do wybranego dostawcy modelu.
Program kursu
- Jak dziś wygląda API agentów w LlamaIndex: `llama_index.core.agent.workflow` bez zgadywania architektury
- ReActAgent vs FunctionAgent na jednym zadaniu: porównanie przebiegu reasoning -> tool -> answer
- Dlaczego FunctionAgent jest zwykle pierwszym wyborem dla modeli z function calling, a ReActAgent zostaje planem B
- Środowisko warsztatowe: Python 3.10+, instalacja `llama-index`, provider LLM i minimalny bootstrap projektu
- Quiz: dobór typu agenta do modelu, narzędzi i sposobu kontroli przepływu
- Pierwszy działający tool z funkcji Pythona: typy, docstring i zwracanie danych bez chaosu
- `FunctionTool` i automatyczne wyprowadzanie schematu: co LlamaIndex bierze z sygnatury, a czego nie zgadnie
- Słaby vs dobry opis narzędzia: pełne przykłady nazw, argumentów i docstringów, które zmieniają wybory agenta
- Najczęstsze błędy w toolach: ukryte efekty uboczne, niejawne wymagane pola, za szeroki zakres odpowiedzialności
- Projekt mini-zestawu narzędzi dla agenta operacyjnego: kalkulacja, walidacja, wyszukiwanie i fallback
- Quiz: rozpoznawanie źle zaprojektowanych narzędzi i ich poprawa
- Minimalny `FunctionAgent` z dwoma toolami: pierwszy przebieg end-to-end w Pythonie
- System prompt, który steruje agentem zamiast być życzeniem: zasady, antywzorce i poprawki
- Jak wymusić poprawne użycie narzędzi: instrukcje decyzyjne, kiedy odpowiadać samemu, a kiedy wołać tool
- Obsługa błędów wywołań funkcji: walidacja argumentów, wyjątki i komunikaty zwrotne dla modelu
- Streaming i obserwacja przebiegu agenta: co logować, aby widzieć decyzje modelu, a nie tylko finalną odpowiedź
- Warsztat porównawczy before/after: ten sam agent przed refaktorem i po refaktorze promptu oraz tooli
- Quiz: czy ten FunctionAgent jest gotowy do użycia przez użytkownika?
- Minimalny `ReActAgent` z tymi samymi toolami: co zmienia się względem FunctionAgent
- Czytanie śladów Reasoning/Action/Observation: jak diagnozować błędny tok rozumowania krok po kroku
- Pętle, overthinking i błędne kolejne akcje: guardraile dla ReActAgent
- Kiedy ReActAgent bywa lepszy od FunctionAgent: modele bez function calling i scenariusze z jawnym planowaniem
- Ćwiczenie porównawcze: to samo zadanie rozwiązane przez FunctionAgent i ReActAgent z analizą jakości odpowiedzi
- Quiz: wybór strategii agentowej na podstawie logów i wymagań projektu
- Sesja agenta i `Context`: jak przechowywać stan rozmowy bez ręcznego sklejenia historii
- Dodanie `QueryEngineTool` do agenta: kiedy tool ma liczyć, a kiedy ma pytać indeks
- Łączenie tooli funkcyjnych i narzędzi wiedzy w jednym agencie bez konfliktów decyzyjnych
- Najczęstsze błędy przy stanie i pamięci: przeciek kontekstu, nadmiar historii, niejawne zależności między krokami
- Wprowadzenie do Workflows i event-driven orchestration: po co znać to API nawet przy prostym agencie
- Quiz: dobór narzędzia do danych, stanu i typu zapytania użytkownika
- Projekt końcowy: agent do rozwiązywania wieloetapowych zadań z użyciem tooli i źródła wiedzy
- Implementacja end-to-end: struktura plików, konfiguracja modeli, definicje tooli i inicjalizacja agenta
- Testy scenariuszowe agenta: pełne wejścia użytkownika, oczekiwane akcje tooli i kryteria zaliczenia
- Checklist produkcyjny: obserwowalność, timeouty, walidacja, fallbacki i ograniczanie kosztu wywołań
- Pełny listing całego agenta z komentarzem linia po linii: dlaczego każda sekcja kodu wygląda właśnie tak
- Quiz końcowy: diagnoza błędów w gotowym agencie i plan dalszego rozwoju
Najczęściej zadawane pytania
Nauczysz się od podstaw budować wnioskującego agenta AI w Pythonie z wykorzystaniem LlamaIndex: od doboru architektury, przez definiowanie narzędzi i promptów systemowych, po obsługę pamięci, stanu, debugowanie i uruchomienie pełnego rozwiązania end-to-end.
Bo oba podejścia są istotne w praktyce. Aktualna dokumentacja LlamaIndex wskazuje, że FunctionAgent warto preferować dla modeli wspierających natywne function calling, a ReActAgent pozostaje bardzo użyteczny tam, gdzie liczy się większa uniwersalność modelu i jawny tok działania. Dzięki temu kurs pomaga zrozumieć nie tylko jak zbudować agenta, ale też kiedy wybrać dane podejście.
Tak. Rynek szybko przesuwa się w stronę systemów agentowych: Gartner prognozował, że do końca 2026 roku 40% aplikacji enterprise będzie zawierać wyspecjalizowanych agentów AI, podczas gdy w 2025 było to mniej niż 5%. To sprawia, że praktyczna umiejętność budowy agentów z narzędziami, pamięcią i kontrolą przepływu staje się coraz bardziej cenna.
Dla programistów Pythona, inżynierów AI/ML, osób budujących aplikacje LLM oraz praktyków, którzy chcą przejść od prostych chatbotów do agentów wykonujących zadania z użyciem narzędzi, logiki wnioskowania i kontroli stanu.
Nie. Kurs prowadzi krok po kroku przez najważniejsze elementy ekosystemu potrzebne do budowy agenta. Przyda się natomiast podstawowa znajomość Pythona i ogólne rozumienie działania modeli językowych.
To kurs warsztatowy, nastawiony na implementację, a nie teorię. Zamiast ogólnego przeglądu dostajesz proces projektowy, konkretne decyzje architektoniczne, pracę z narzędziami w Pythonie, pamięcią i stanem agenta oraz metody diagnozowania błędów w realnym rozwiązaniu.
- 8 godzin
- Średniozaawansowany
- Certyfikat po ukończeniu
- Dostęp natychmiast po zakupie
- Dożywotni dostęp i aktualizacje
30-dniowa gwarancja zwrotu pieniędzy