Teoria to jedno, ale w inżynierii oprogramowania liczy się “mięso”. Jak wygląda wdrożenie standardu MCP w tydzień? Czy da się generować 100% kodu produkcyjnego przez AI? I dlaczego dokumentacja Twojego projektu może stać się bezużyteczna dla ludzi?
Zestawiliśmy konkretne wdrożenia i ostrzeżenia, które oddzielają hype od tego, co naprawdę działa w kodzie. To wnioski płynące bezpośrednio z praktyki instruktorów projektu Architekt Jutra.
Case Studies: Architektura, która pozwala na 100% AI w kodzie
Przykłady „z pola walki” udowadniające, że sukces wdrożenia AI zależy od wcześniejszych decyzji architektonicznych, a nie od inżynierii promptów.
Wdrożenie standardu MCP w tydzień
Firma wdrożyła produkcyjne MCP (Model Context Protocol) w zaledwie 7 dni. Sukces ten nie wynikał z “magicznych promptów”, ale od decyzji o inwestycji w architekturę pluginową, podjętej 5-6 lat wcześniej.
🕒 Czasówka: 00:54:36 oraz kontekst architektury: 00:18:08
100% kodu generowanego przez AI
W wielu projektach Skill Panel 100% kodu powstaje przy użyciu AI (Claude). Żadna linijka nie jest pisana ręcznie przez programistę. Jest to efekt dwuletniego doświadczenia firmy w pracy z asystentami AI (od Cody po Claude).
🕒 Czasówka: 01:17:44
Bezpieczeństwo danych: Anonimizacja i Deanonimizacja
Jak bezpiecznie przetwarzać dane wrażliwe? Jakub Kubryński mówił o procesie, w którym dataset jest konwertowany przed wysłaniem do LLM: dane osobowe zastępowane są tymczasowymi identyfikatorami. Po powrocie odpowiedzi z modelu proces jest odwracany (deanonimizacja), co zapewnia bezpieczeństwo danych klientów.
🕒 Czasówka: 00:24:59
Wewnętrzne narzędzie dla Customer Support
Wewnętrzne MCP dla zespołu wsparcia. Agent AI przepytuje bazę uprawnień i natychmiast zwraca odpowiedź (np. czy dany użytkownik widzi edycję skilli), co drastycznie skraca czas obsługi zgłoszeń i debugowania.
🕒 Czasówka: 02:10:10
Budowa bazy wiedzy i ontologii
Koncepcja „Learning Guardian”. Polega ona na budowaniu ontologii błędów (Failure Ontology): błędy popełnione przez AI są wykorzystywane do douczania modelu i zasilania go lepszym kontekstem w przyszłości, tworząc samodoskonalący się system.
🕒 Czasówka: 02:40:55
Lekcje z rynku: Ostrzeżenia i obserwacje branżowe
Historie innych firm, które służą jako drogowskazy (lub znaki ostrzegawcze).
Tailwind CSS i “kanibalizacja” dokumentacji przez AI
Jakub Pilimon przywołał historię, że ruch na stronie dokumentacji frameworka Tailwind spadł o około 40%, mimo że sam framework jest obecnie „popularniejszy niż kiedykolwiek”.
Powód: Spadek nie wynika z tego, że ludzie przestali używać narzędzia, lecz z faktu, że coraz częściej użytkownikami dokumentacji są LLM-y, które zamiast odwiedzać stronę jak człowiek, po prostu ją crawlują. Stanowi to problem dla modelu biznesowego twórców, dla których dokumentacja była głównym lejkiem sprzedażowym.
🕒 Czasówka: 00:41:43
Garmin Autoland
Porównanie tempa technologii i regulacji. System automatycznego lądowania Garmin Autoland był gotowy technicznie już w 2014 roku (pierwszy lot), ale certyfikację uzyskał dopiero w 2020 roku.
Governance w AI (podobnie jak w lotnictwie) jest powolny, ale niezbędny, by uniknąć katastrof w systemach krytycznych.
🕒 Czasówka: 00:21:32
Upadek Kodaka a ignorowanie AI
Klasyczny przykład firmy, która zignorowała rewolucję cyfrową, traktując ją jako chwilową modę. Case ten przytoczono jako ostrzeżenie dla programistów i firm, które dziś bagatelizują wpływ AI na branżę IT.
🕒 Czasówka: 00:52:25
Afera Volkswagena
Przypomnienie sytuacji, w której pracownik trafił do więzienia za kod fałszujący wyniki emisji spalin.
Kontekst AI: Sztuczna inteligencja nie ponosi odpowiedzialności karnej. Odpowiedzialność za wygenerowany i wdrożony kod zawsze spada na programistę.
🕒 Czasówka: 00:57:00
Shadow IT: Proxy pod biurkiem i mop
Historia sprzed 20 lat z korporacji o restrykcyjnych politykach bezpieczeństwa. Pracownicy postawili „nielegalny” komputer podpięty do Wi-Fi dla gości, który działał jako proxy dla 2000 pracowników. Pół firmy zostało sparaliżowane w momencie, gdy osoba sprzątająca przypadkiem wyłączyła ten komputer mopem.
Analogia: To dzisiejsze Shadow AI. Jeśli firma zakazuje AI, pracownicy będą używać prywatnych ChatGPT na służbowych danych po kryjomu. Jest to znacznie bardziej ryzykowne niż kontrolowany governance.
🕒 Czasówka: 00:19:00
Pułapka Prototypowania (MVP)
Tradycyjny problem polegał na tym, że gdy zespół tworzył szybki prototyp „na sznurki”, biznes uznawał go za gotowy produkt i kazał go rozwijać zamiast przepisać. Przez to zespoły bały się robić tanie prototypy i od razu budowały „porządne” rozwiązania, co zabijało sens prototypowania.
Zmiana dzięki AI: Narzędzia AI (np. v0, Lovable) zmieniają ekonomię tego procesu: wygenerowanie prototypu jest tak tanie i szybkie, że nikomu nie jest żal go wyrzucić po fazie Discovery. Dzięki temu, że prototyp można wygenerować „w chwilę” , zespoły mogą skupić się nie tylko na Delivery, ale odzyskać przestrzeń na Discovery.
🕒 Czasówka: 00:48:48
Cały Live jest dostępny na YouTube!
👉 Więcej o nowym projekcie i roli inżyniera AI znajdziesz na: architektjutra.pl















