DevTalk#66 – O Massive Data Processing z Łukaszem Dziekanem

2

lukasz-dziekanOdcinek 66, prawie jak 666! MASSIVE numer. Więc i MASSIVE CONTENT!

Dzisiaj przed Wami Łukasz Dziekan. Człowiek-orkiestra. Świetny programista i architekt, ale także leader i biznesmen. CTO w FinAi, a wcześniej tech-ważniak w różnych dużych i mniejszych firmach, w Polsce i USA. Na Twitterze @pan_dziekan.

Tematem odcinka jest Massive Data Processing. Co to? Jak się ma do popularnego Big Data? A co to w ogóle Big Data? Na jakie klasy możemy podzielić dane? Skąd uczyć się o wydajności, algorytmach, złożoności obliczeniowej? Do tego jeszcze… co to CAP??? Na te i inne pytania znajdziesz odpowiedzi w niniejszym odcinku.

A może klikniesz kilka gwiazdek na iTunes? ;)

PLAY! Miłego słuchania!


Montaż odcinka: Krzysztof Śmigiel.
Ważne adresy:

Linki:


Muzyka wykorzystana w intro:
“Misuse” Kevin MacLeod (incompetech.com)
Licensed under Creative Commons: By Attribution 3.0
http://creativecommons.org/licenses/by/3.0/

Share.

About Author

Programista, trener, prelegent, pasjonat, blogger. Autor podcasta programistycznego: DevTalk.pl. Jeden z liderów Białostockiej Grupy .NET i współorganizator konferencji Programistok. Od 2008 Microsoft MVP w kategorii .NET. Więcej informacji znajdziesz na stronie O autorze. Napisz do mnie ze strony Kontakt. Dodatkowo: Twitter, Facebook, YouTube.

2 Comments

  1. Dość dobry opis bigdaty.
    W PL firm polskich może być niezbyt dużo, ale 100TB+ były już w 2010. Dużo u nas niestety outsourcu, gdzie nasi dobrzy programiści robią doskonałe formularze.
    Trochę mi brakło odbicia w stronę in-memory typu HANA. Drogie, ale in-memory, a maszyny do 4TB.

    Do algorytmów Skiena jest spoko, bardzo strawny.
    CormEn jest doskonały, ale ciężki jako lektura.

    Z ciekawostek, Hadoop wygrał nawet z tym, co niektóre duże firmy od jezyków z płotkiem próbowały. I przez to jvm (Java i Scala), python i c++.
    Map reduce było w językach funkcyjnych. Nazwa wzięła się od funkcji… map i reduce.
    Przeczytać: papery! Googla (HDFS, Pregel, Megastore, Dremel itd, fajnie widać ewolucję myślenia.

    Determinizm, streamy i big data mają część wspólną, żeby to się dało robić at scale, wychodzi functional, append only i reactive.

  2. Pingback: Poranna prasówka #1 - DevLog

Leave A Reply