Przetwarzanie Big Data w coraz większym stopniu nie ogranicza się tylko do wyszukiwania danych, ale wiąże się również z wykorzystaniem zaawanasowanych algorytmów przetwarzania tekstu czy obrazu oraz zastosowaniem modeli uczenia maszynowego.
Usługa Azure Data Lake Analytics nie tylko rozwiązuje wiele z problemów związanych z efektywnością i skalowalnością procesu analizy danych, ale daje on również możliwość przetwarzania Peta byte’ów danych przy użyciu języka U-SQL (będącego połączeniem paradygmatów deklaratywnego i proceduralnego) oraz istniejących bibliotek napisanych w językach .NET, R czy Python.
W tej sesji przedstawiamy, w jaki sposób można używać kodu .NET, Pythona czy R do tworzenia skalowanych rozwiązań analizy Big Data.
