Prompt Engineering dla zaawansowanych: wzorce, eksperymenty i niszowe techniki wyciskania maksimum z ChatGPT
Warsztat dla zaawansowanych użytkowników AI, którzy chcą przejść od „dobrych promptów” do projektowania powtarzalnych, testowalnych i wysoko sterowalnych interakcji z ChatGPT oraz pokrewnymi modelami.
Ten intensywny warsztat pokazuje prompt engineering nie jako zestaw trików, ale jako praktykę projektowania interfejsu poznawczego dla modeli językowych. Uczestnik pracuje na zaawansowanych technikach: precyzyjnym sterowaniu rolą i zakresem odpowiedzi, kontrastowaniu promptów słabych i mocnych, formatowaniu z użyciem schematów i XML-like delimiters, budowaniu promptów wieloetapowych, wymuszaniu jakości przez kryteria oceny, projektowaniu bezpiecznych promptów odpornych na prompt injection oraz optymalizacji kosztu i latencji przez stabilny prefiks i cache-friendly strukturę. Kurs celowo odchodzi od generycznych tematów „jak pisać lepsze polecenia” i skupia się na niszowych, praktycznych metodach używanych przez power userów: prompt chaining, self-critique, comparative prompting, rubric prompting, structured outputs, meta-prompty do generowania promptów oraz strategie do pracy z długim kontekstem. Program uwzględnia aktualne praktyki z dokumentacji OpenAI, Anthropic i Google: m.in. Structured Outputs i JSON Schema, Responses API i prompt caching w OpenAI, XML tags i extended thinking w Anthropic oraz wzorce projektowania promptów dla Gemini. Efektem kursu jest własny zestaw zaawansowanych szablonów promptów do pracy w ChatGPT i innych nowoczesnych interfejsach LLM.
Czego się nauczysz
- Projektuje prompty z wyraźnym podziałem na instrukcje, kontekst, przykłady, ograniczenia i format odpowiedzi.
- Porównuje słabe i mocne wersje promptów oraz diagnozuje, który element najbardziej wpływa na jakość odpowiedzi modelu.
- Buduje prompty wieloetapowe z etapem planowania, krytyki, rewizji i finalizacji odpowiedzi.
- Stosuje structured outputs, JSON Schema i formatowanie odpowiedzi tak, aby wynik nadawał się do dalszego użycia bez ręcznej obróbki.
- Wykorzystuje delimitery i strukturę XML-like do ograniczania niejednoznaczności i poprawy zgodności modelu z instrukcją.
- Tworzy rubryki oceny i prompty-evaluatory do testowania jakości własnych promptów.
- Projektuje prompty bardziej odporne na prompt injection, wycieki instrukcji i konflikt priorytetów między wiadomościami.
- Optymalizuje prompty pod koszt, latencję i reużywalność dzięki stabilnym prefiksom i modularnej strukturze.
- Dobiera technikę promptingową do typu zadania: analiza, transformacja, generowanie, synteza, research, symulacja i decyzje wielokryterialne.
- Tworzy własną bibliotekę zaawansowanych szablonów promptów do pracy codziennej w ChatGPT.
Wymagania wstępne
Znajomość podstaw prompt engineeringu, swobodna praca z ChatGPT lub podobnym modelem, umiejętność oceny jakości odpowiedzi modelu, gotowość do wykonywania ćwiczeń warsztatowych na własnych przykładach. Mile widziana znajomość pojęć takich jak JSON, schema, context window i prompt injection, ale nie jest wymagana umiejętność programowania.
Program kursu
- Od jednego trafionego promptu do systemu promptów: kryteria jakości dla power usera ChatGPT
- Anatomia zaawansowanego promptu: instrukcja, kontekst, dane wejściowe, ograniczenia, format, rubryka oceny
- Porównanie full artifact: ten sam cel, trzy prompty, trzy poziomy jakości odpowiedzi
- Ćwiczenie warsztatowe: rozbiór własnego promptu na warstwy sterujące
- Quiz: rozpoznawanie elementów, które faktycznie sterują odpowiedzią modelu
Najczęściej zadawane pytania
- 8 godzin
- Zaawansowany
- Certyfikat po ukończeniu
- Dostęp natychmiast po zakupie
- Dożywotni dostęp i aktualizacje
30-dniowa gwarancja zwrotu pieniędzy