Czy Twoja praca wygląda dziś tak samo jak 3 lata temu? A może już teraz sam robisz tyle, co kiedyś cały zespół? Jeśli korzystasz z AI w kodowaniu, ale masz wrażenie, że przepalasz tokeny bez większego efektu, a agenci „odpływają” i robią co chcą – ten odcinek pomoże Ci zrozumieć dlaczego i co z tym zrobić.
Tomasz Ducin wraca do DevTalk, tym razem z kontynuacją tematu LLM-ów, ale o poziom głębiej. To już nie tylko nauka z AI – to praktyka kodowania, gdzie LLM-y mogą być Twoim zespołem juniorów… jeśli wiesz, jak nimi zarządzać. Tomek jako architekt, developer i konsultant, intensywnie pracuje z systemami agentowymi i zna ich możliwości, ale też ograniczenia – bo rozumie, jak to działa od środka.
Z tego odcinka dowiesz się:
- Czy AI to faktycznie „osobisty zespół juniorów” i w jakich taskach naprawdę może przypieszyć Twoją pracę;
- Dlaczego „jesteś ekspertem od Reacta” to nienajlepszy początek prompta;
- Co to jest „higiena kontekstu” i dlaczego większość ludzi przepala niepotrzebnie swoje tokeny;
- Dlaczego execute() bez myślenia to przepis na katastrofę;
- Czym jest Vertical Slices Architecture i dlaczego LLM-y pracują z nią o wiele efektywniej;
- Jak naprawdę działają modele, czyli macierze, wagi, kwantyzacja i co to oznacza dla Twojej pracy;
- Dlaczego przyszłość to zarządzanie kontekstem, a nie większe okna;
- Kiedy AI działa jako pair-programmer, a kiedy to tylko iluzja współpracy?
A teraz… PLAY!
Ważne adresy:
- Spotify
- Apple Podcasts
- RSS
- ściągnij odcinek w mp3
Linki:
- DevTalk #124 – O Nauce z Pomocą LLM-ów z Tomaszem Ducinem
- DevTalk #09 – O programowaniu w parach z Krzysztofem Szabelskim
- i najważniejsze! W ramach projektu Developer Jutra zapraszamy Cię na [LIVE] DeepDive do serca LLMów w programowaniu • 20 października (poniedziałek), 20:00;
Muzyka wykorzystana w intro: “Misuse” Kevin MacLeod (incompetech.com)
Licensed under
Creative Commons: By Attribution 3.0