SQLDay Lite to jednodniowa konferencja promująca miasta, w których działa Data Community Poland, na której można spodziewać się wielu ciekawych sesji dotyczących Microsoft Data Platform – baz danych, Big Data, Business Intelligence i zaawansowanej analizy danych.
W tym roku jest to Bydgoszcz!
Konferencja organizowana jest przez pasjonatów i profesjonalistów z całego kraju działających w ramach Polskiej Grupy Użytkowników SQL Server (PLSSUG).
Obecnie oficjalnym organizatorem konferencji jest Data Community Poland, w ramach którego nad merytoryczną i udaną konferencją czuwają doświadczeni organizatorzy poprzednich edycji wydarzenia.
Bilety tylko onsite: uczestnik konferencji bierze w niej udział osobiście w Bydgoszczy
*lub do wyczerpania puli biletów
Forma warsztatu: Wykład z przykładami, które uczestnicy mogą uruchamiać na własnym sprzęcie. Nie będzie pisania kodu – dostarczymy gotowe skrypty.
Dobra znajomość języka SQL, podstawowa wiedza na temat administrowania SQL Server.
Własny komputer z zainstalowanym SQL Server 2022 edycja Developer – Database Engine, SQL Server Management Studio. Na serwerze SQL konieczne będzie odtworzenie baz danych, które udostępnimy. W trakcie warsztatu będziemy demonstrować parę innych narzędzi – opcjonalnie do zainstalowania przez uczestników w trakcie samego warsztatu (to drobniejsze aplikacje, uczestnicy dostaną je w pakiecie materiałów).
Dużo już mówiliśmy o tym jak optymalizować wykonywanie ciężkiego zapytania. Zagłębialiśmy się w plany wykonania czy użycie indeksów. Teraz czas przyjrzeć się samemu serwerowi. Co powoduje, że wszystkie zapytania zaczynają szwankować?
Tematyka:
– Konfiguracja serwera – co pomaga, czego nie należy ruszać.
– Jak serwer wykorzystuje zasoby (CPU, RAM, IO). Jak je monitorować – widoki DMV, wskaźniki wydajnościowe.
– Stany oczekiwania – monitoring i możliwości reagowania.
– TempDB.
– Poznaj swój serwer, czyli jak symulować obciążenie – HammerDB, SQLQueryStress.
Warsztaty będą podzielone na sekcję wykładową z przykładami i hands-on lab
Znajmomość programów: Power BI Desktop, Tabular Editor, Dax Studio.
Podstawowa znajomość języka DAX
Uczestnicy powinni posiadać: laptopa + zainstalowane na nim:
– Power BI Desktop
– Tabular Editor
– Dax Studio
– Opcjonalnie SQL Server 2022 z Analysis Services
Warsztat będzie poświęcony tematom związanym z miarami DAX i ich zastosowaniem w praktyce. Pokażemy na nim jak pracować z calculation groups oraz miarami zagnieżdżonymi aby uniknąć pogorszenia wydajności. Poruszymy tematy związane z vertical fusion oraz horizontal fusion, które mogą być bardzo pomocne w pracy z raportami dla odbiorców – użycie odpowiednich wizualizacji może całkowicie zmienić odbiór raportu przez użytkownika końcowego. Przejdziemy też przez przykłady pokazujące jak pracować z miarami gdy mamy tabele parametrów oraz jak uniknąć problemów w przypadku stosowania tabel agregacyjnych. Nie zabraknie modelowania – pokażemy jak sterować wymiarami które mają przechowywać wartości historyczne oraz jaki może mieć to wpływ na wydajność. Zahaczymy też o nowości – funkcje okna w zastosowaniach praktycznych, które bardzo ułatwiają development niektórych miar.
Hands-on lab z elementami wykładowymi. W ramach laboratorium wspólnie z uczestnikami stworzymy aplikację w Pythonie wykorzystującą agentów AI. Jako prezentację chciałbym przedstawić wstęp do Langchaina, autonomicznych agentów bazujących na dużych modelach językowych oraz podejście do monitoringu aplikacji wykorzystujących LLMy.
Do optymalnego skorzystania z warsztatów potrzebna jest przynajmniej podstawowa umiejętność programowania w Pythonie.
Aby w pełni wykorzystać udział w warsztatach uczestnicy potrzebować będą własnych komputerów z zainstalowanym Visual Studio Code wraz z wtyczką do Pythona oraz zainstalowanymi bibliotekami, które przesyłam w mailu w załączeniu. Uczestnicy będą mogli również korzystać z własnej subskrypcji Azure, jeśli taką posiadają, ale będą również mogli wykorzystać usługi z mojej.
Podczas warsztatu używając Pythona i usług Azure zbudujemy aplikację wykorzystującą agentów AI, czyli modeli językowych zdolnych do autonomicznego lub częściowo autonomicznego wykonywania złożonych zadań. Jako główną składową użyjemy frameworku Langchain, który zostanie przedstawiony od strony teoretycznej w pierwszej części warsztatu. Podczas niej omówię podstawowe elementy framework’u takie jak łańcuchy, agenci czy narzędzia. W drugiej części skupimy się na budowie samej aplikacji rozpoczynając od uruchomienia koniecznych usług Azure, takich jak Azure OpenAI, Azure AI Document Intelligence i Azure AI Search. Oprócz części backendowej stworzymy również prosty interfejs z wykorzystaniem biblioteki streamlit. Po stworzeniu aplikacji omówimy i przetestujemy również możliwości dotyczące jej monitorowania.
Hands-on lab z elementami wykładowymi.
Podstawowa znajomość Azure + databricks, ale zajęcia będziemy prowadzić od początku, więc nawet jak ktoś przyjdzie na świeżo to się nie zgubi
Laptop z zainstalowanymi: terraform, az cli, databricks cli, powershell 7, IDE( np. vs code z pluginami do powyższych narzędzi)
Azure: subskrypcja trial.
Databricks jest już z nami od lat, w tym w setkach implementacji w polskich firmach. Chcemy podzielić się naszymi doświadczeniami zarówno z wdrażania usługi Databricks w nowych projektach, jak i w optymalizacji już zastanych rozwiązań. Na tej sesji przejdziemy przez proces tworzenia i odpowiedniego zabezpieczenia Databricks Workspace na platformie Azure. Razem zastosujemy najlepsze praktyki zwiazane z automatyzacją tworzenia środowiska na Azurze (za pomocą zarówno Azure Bicepa jak i Terrraforma) oraz wszystkich niezbędnych komponentów wewnątrz workspace’u. Dokładnie omówimy, na przykładach, zabezpieczenia sieciowe środowiska, logi i monitoring oraz kontrolę dostępów. Następnie zabierzemy sie do tworzenia klastrów (zwykłych i SQL) i pokazania, jak je wykorzystywać oraz odpowiednio zabezpieczyć. Potem stworzymy pełen setup Unity Catalogu wraz z testowym ładowaniem danych do stworzonych przez nas tabel. To wszystko okrasimy pełną automatyzacją całego środowiska + procesem CI/CD przy pracy z Databricks. W trakcie będziemy także omawiać optymalizacje kosztowe rozwiązań, które razem stworzymy z przykładami z naszych poprzednich wdrożeń.