Przejdź do treści

DevStyle - Strona Główna
Pułapki promptowania w nauce z AI

Pułapki promptowania w nauce z AI

Team devstyle

2 października 2025

Na miękko

Konsumujesz wiedzę przez LLM-y? Przeczytaj 🙂

Coraz więcej osób przyznaje, że artykuły techniczne czy książki czyta się dziś coraz rzadziej. Źródłem wiedzy stają się przede wszystkim LLM-y: bo szybciej, wygodniej i od razu w kontekście konkretnego problemu. Dopiero gdy AI nie daje rady, sięgamy po Google, blogi albo literaturę.

I to jest okej. Tylko że skoro większość nauki odbywa się dziś przez AI, pojawia się ważne pytanie: jak korzystać z niej skutecznie? Warto znać najczęstsze pułapki i sposoby, jak ich unikać.

Promptowanie wygląda na proste, ale wcale takie nie jest. Wystarczy kilka złych nawyków, żeby zamiast przyspieszać naukę, spowalniać ją i wprowadzać złudne poczucie, że „już wszystko wiem”.

W DevTalk #124 Maciej Aniserowicz rozmawiał z Tomaszem Ducinem właśnie o tym: jak mądrze korzystać z LLM-ów podczas nauki i jakich pułapek w promptowaniu unikać.

1. Pułapka ściany tekstu

Zadasz zbyt ogólne pytanie i nagle masz przed sobą elaborat na trzy ekrany. Brzmi mądrze, wygląda poważnie, ale w praktyce niewiele da się z tego wyciągnąć.

Tomasz trafnie to ujął:

Nie chodzi o to, żeby LLM wygenerował Ci potężną ścianę tekstu, który będzie lepszej czy gorszej jakości.

Długa odpowiedź nie znaczy dobra. Wręcz przeciwnie: łatwo się w niej pogubić, a kluczowe szczegóły znikają w zalewie słów.

Jak unikać: wymuszać zwięzłość w prompcie. Instrukcja typu: „Odpowiadaj krótko, punktami, jedno zdanie na punkt, bez wstępów i podsumowań”.

Dzięki temu zamiast wodolejstwa dostajesz listę, z którą można szybko pracować.

2. Pułapka iluzji wiedzy

LLM-y odpowiadają pewnie i spójnie, co daje wrażenie szybkiego zrozumienia tematu. Kilka promptów i kilka odpowiedzi wystarczy, żeby pomyśleć: „już wszystko wiem”. To szczególnie groźne na początku kariery, gdy brakuje narzędzi do rozróżnienia, co jest istotą problemu, a co tylko powierzchownym uproszczeniem.

Jeżeli jesteś w etapie unknown unknowns i dostaniesz od czata mięsistą odpowiedź: och, jakie wspaniałe pytanie, to proste, tu masz A, B i C, i jeszcze kodzik działa, to w połączeniu z efektem Dunninga-Kriegera myślisz sobie: wiem wszystko. A to gigantyczne ryzyko, że ktoś, kto nie zna problematyki ani punktu ciężkości, przedwcześnie uzna: ja to wszystko rozumiem.

Jak unikać: zawsze konfrontować to, co daje LLM, z innymi źródłami: książkami, artykułami, rozmową z bardziej doświadczonymi devami. Ucząc się danej rzeczy, na początku zrozum, gdzie jest punkt ciężkości, gdzie są problemy, co jest trudne.

3. Pułapka „miłego nauczyciela”

LLM-y mają tendencję do bycia przesadnie uprzejmymi. Każde pytanie jest „świetne”, każda odpowiedź jest pełna pochwał. Brzmi to przyjemnie, ale w nauce kompletnie nie działa.

Tomasz w swoich promptach dodaje wskazówki, np.:

Don’t be sycophantic. Bądź oschle merytoryczny. Kiedy popełnię błąd krytykuj i wyjaśniaj.

Maciej dodał, że w każdym promptcie ma dopisek:

Nie jesteś moim przyjacielem, nie musisz mi się podlizywać, chcę żebyś był krytykiem.

Jak unikać: prosić wprost o krytykę. Zamiast „wyjaśnij mi”, lepiej napisać: „Oto moje rozumienie tematu. Wskaż błędy, skrytykuj i popraw. Bądź merytoryczny, bez pochwał.”

4. Pułapka złych źródeł

Jeśli chcesz się czegoś nauczyć o CQRS czy event sourcingu, nie pisz ogólnego prompta „wyjaśnij mi o co chodzi w X”, tylko dodaj:

„Podaj główne problemy, które dana architektura rozwiązuje, powołując się na to, jak tłumaczy to np. Greg Young, Udi Dahan, Martin Fowler, Vaughn Vernon”.

W ten sposób można zawęzić źródła, z których LLM czerpie, i zwiększyć szansę, że odpowiedź będzie bliższa rzetelnej wiedzy.

Jak unikać: odwoływać się do nazwisk i autorytetów uznanych w danej dziedzinie. Trzeba pamiętać, że nie daje to stuprocentowej pewności, zawsze warto sprawdzać źródła (sources), czy faktycznie odpowiedzi odnoszą się do wskazanych osób, a nie do parafrazy czy przypadkowego materiału.

5. Pułapka braku priorytetów

LLM-y mają wbudowany mechanizm uwagi (attention): potrafią nadawać większą wagę niektórym fragmentom prompta.
Problem w tym, że gdy piszemy ogólny prompt, nie wskazujemy priorytetów, więc model może rozłożyć akcenty w sposób przypadkowy lub nieoptymalny.

Jak unikać: korzystać z mechanizmu uwagi (attention). W promptach zaznaczać: „bardzo ważne jest, żeby…” albo „priorytetem jest…”. Model lepiej rozumie wtedy hierarchię treści.

6. Pułapka kopiuj-wklej

Najbardziej zdradliwa pułapka to traktowanie odpowiedzi AI jako gotowego rozwiązania. Sam wygenerowany tekst, nawet długi i poprawny, nie ma żadnej wartości, dopóki go nie przetworzymy. Według Tomasza jest tylko materiałem wyjściowym, który dobrze jest:

  • zinternalizować (przemyśleć, przyswoić),

  • zakwestionować i skonfrontować z tym, co już wiesz,

  • sprawdzić, na ile w tym tekście faktycznie jest sens.

Dopiero ten proces nauki ma realną wartość.

Jak unikać: stosować strategię streszczeń warstwowych. Poprosić najpierw o 1 zdanie, potem o 5 zdań, później o listę punktów, a dopiero na końcu o pełny opis lub kod. To zmusza do przechodzenia od ogółu do szczegółu i budowania własnego rozumienia.

Podsumowanie

LLM-y w dużej mierze zastąpiły tradycyjne źródła wiedzy. Dają szybkie odpowiedzi i pozwalają uczyć się w biegu. Ale żeby to działało, trzeba wiedzieć, jak z nimi “rozmawiać.”

Ściana tekstu, iluzja wiedzy, zbyt miły nauczyciel, złe źródła, brak priorytetów czy kopiuj-wklej: to wszystko są pułapki promptowania, które mogą zablokować rozwój zamiast go przyspieszać.

Najważniejsze, jak podkreśla Tomasz Ducin:

LLM nie powinien być traktowany jako nauczyciel czy jako implementator, tylko bardziej jako sparing partner, od którego można odbić myśli.

Jeśli AI traktowane jest jak sparing partner, daje prawdziwą wartość: pomaga szybciej uczyć się, sprawdzać rozumienie i kwestionować swoje założenia.

Cała rozmowa z Tomaszem Ducinem: DevTalk #124. Zapraszamy serdecznie!

Zobacz również