SQL Day 2025

hala stulecia, Wrocław + online

12.05 warsztaty
13 - 14.05 konferencja

SQLDay to największa w tej części Europy konferencja poświęcona platformie danych Microsoft, w tym między innymi: bazom danych, rozwiązaniom Big Data i Business Intelligence, zaawansowanej analizie danych.

Konferencja jest organizowana od 2009 roku przez pasjonatów z całego kraju działających w ramach stowarzyszenia Data Community Poland, dawniej Polish SQL Server User Group (PLSSUG).

Nad merytoryką i powodzeniem konferencji czuwają doświadczeni organizatorzy poprzednich edycji wydarzenia, którzy na co dzień współpracują z ogólnoświatową społecznością specjalistów pracujących z platformą danych Microsoft.

Bilet Standard
Early bird
07.01.2025 - 15.01.2025*
Wyprzedane
(1200 PLN + VAT)
Fly bird
15.01.2025 - 28.02.2025*
1 906,50 PLN
(1550 PLN + VAT)
Late bird
01.03.2025 - 31.03.2025*
2 214,00 PLN
(1800 PLN + VAT)
Bilet Community
Early bird
07.01.2025 - 15.01.2025*
Wyprzedane
(900 PLN + VAT)
Fly bird
15.01.2025 - 28.02.2025*
1 537,50 PLN
(1250 PLN + VAT)
Late bird
01.03.2025 - 20.04.2025*
1 845,00 PLN
(1500 PLN + VAT)
Last minute
21.04.2025 - 05.05.2025*
2 706,00 PLN
(2200 PLN + VAT)
Warsztaty
Early bird
07.01.2025 - 15.01.2025*
Wyprzedane
(1100 PLN + VAT)
Fly bird
15.01.2025 - 28.02.2025*
1 968,00 PLN
(1600 PLN + VAT)
Late bird
01.03.2025 - 20.04.2025*
2 644,50 PLN
(2150 PLN + VAT)
Last minute
21.04.2025 - 05.05.2025*
3 321,00 PLN
(2700 PLN + VAT)

Bilety onsite: uczestnik konferencji bierze w niej udział osobiście we Wrocławiu
Bilety online: uczestnik konferencji podłącza się zdalnie przez aplikację konferencyjną

Bilet Standard – Pakiet gadżetów konferencyjnych obejmuje ekskluzywny, brandowany plecak. Liczba biletów standardowych jest ograniczona.
Bilet Community – Pakiet gadżetów konferencyjnych zawiera materiałową torbę zamiast plecaka

* lub do wyczerpiania puli biletów

Warsztaty

[EN] Becoming an Azure SQL DBA – Advancing the Role of the SQL Server DBA

Length of the workshop: Full day (8 hours)
Workshop form:

Lecture

Language:
ENG
Level: 300

This full day workshop, delivered by the Microsoft Azure SQL product group, is optimized for SQL Server DBAs who want to learn how their role evolves in Azure and the skills that will make them heroes of digital transformation in their organizations.

You will learn how Azure SQL automates many common tasks and offers business continuity capabilities out of the box. The session will also cover areas of shared responsibility, what remains solely in the realm of DBAs, and the unique new value DBAs can bring.

Topics Covered

The workshop topics include:

  • High availability
  • Disaster recovery
  • Backup and restore
  • Performance tuning and troubleshooting
  • Cost optimization
  • Observability
  • Security and compliance
  • Connectivity
  • Integration with Microsoft Fabric and other Azure services

[EN] Advanced DAX

Length of the workshop: Full day (8h)
Workshop form:

Lecture and demos

Language:
ENG
Level: 400
Skills required:

Users are expected to have a basic/good understanding of DAX and Power BI

If you already know and use DAX but want to move to the next level, this workshop is for you. Unleash the full power of evaluation context manipulation, learn about expanded tables, control data lineage, avoid circular dependencies, and manage relationships at different granularities.

Prerequisites

To attend this training, you must have good experience writing DAX measures in Power BI or Analysis Services. You should be familiar with:

  • Row context, filter context, and context transition
  • Using CALCULATE
  • Learning new and advanced concepts

At the minimum, you should watch the free Introducing DAX Video Course and spend weeks practicing before attending this training.

What You Will Learn

Here are a few examples of what you can learn in this workshop:

  • Filter columns, not tables. Yes, you already know that, but you will learn many more reasons why it is a good idea.
  • Understand when to use ALLEXCEPT, and what to use instead of ALLEXCEPT in situations where it is not a good idea.
  • Fix circular dependency errors that might appear when creating relationships, calculated columns, or tables.
  • Control data lineage and manipulate it using TREATAS.
  • Write granularity-aware measures when using many-to-many cardinality relationships (yes, you can if you know what you are doing).

[PL] (transformacja?) Od Power BI dewelopera do Fabric inżyniera

Długość warsztatu: Cały dzień (8 godzin)
Forma warsztatu:

Warsztat (slajdy + ćwiczenia dla uczestników)

Język:
PL
Poziom: 300
Co przygotować:

• Laptop na którym będą wykonywane ćwiczenia

Pracujesz w Power BI od kilku miesięcy lub lat, a świat tej platformy zaczyna Cię ograniczać. Być może warstwa Power Query stała się bardzo rozbudowana, a liczba wymaganych transformacji przerasta możliwości narzędzia. Może również odświeżanie danych trwa wieki, a subskrypcje Premium są zbyt kosztowne w stosunku do oferowanych funkcji. A może chcesz wykorzystać moc obliczeniową modelu semantycznego (DAX jest niezastąpiony!) do dalszych transformacji lub uczenia maszynowego.

Chcielibyśmy zaprosić Ciebie na warsztat typu hands-on, w trakcie którego sprawdzisz, że w takich przypadkach Microsoft Fabric stanowi naturalne rozwiązanie, ponieważ umożliwia realizację takich scenariuszy na kilka sposobów:

  • Dane mogą być wstępnie umieszczone w Lakehouse (jako landing zone).
  • Transformacje mogą być realizowane w Fabric ADF, Dataflows, Data Wrangler, notatnikach oraz procedurach składowanych.
  • Model semantyczny, który można odświeżać w bardziej wybiórczy sposób.
  • Semantic Link, który umożliwia dostęp do danych w notatnikach.
  • Więcej opcji powiadomień z Twoich raportów dzięki Activatorowi.
  • Poszczególne zadania można łączyć w sekwencje, zrównoleglić i wywoływać zgodnie z harmonogramem lub w odpowiedzi na zdarzenie.

Microsoft Fabric znacznie upraszcza rozwój rozwiązań analitycznych na wielu płaszczyznach. Warto zwrócić uwagę na możliwość wersjonowania kodu (projektów, komponentów platformy, wdrażania między środowiskami dev, test, prod), zredukowane do minimum czynności administracyjne oraz ciągły rozwój platformy w wielu kierunkach.

Adaptacja do nowej platformy jest łatwa, a narzędzia stały się bardziej intuicyjne z perspektywy dewelopera Power BI, który chce wykonać swoje zadanie w sposób bardziej efektywny i precyzyjny.

Na tym wielowarstwowym torcie czeka na nas także spory owoc wiśni: wejście w świat sztucznej inteligencji staje się coraz prostsze. AutoML, Copiloty – są już dostępne na platformie, więc nawet jako inżynier Fabric (a wcześniej deweloper Power BI) możesz z łatwością wykorzystać te funkcjonalności.

Podczas warsztatu przejdziemy wspólnie przez opisane wyżej scenariusze. Prosimy zabrać ze sobą laptopy, ponieważ warsztat ma charakter hands-on. Posiadacze maszyn firmowych – upewnijcie się, że możecie się podłączyć do publicznych i zabezpieczonych hasłem sieci WiFi. Każdy uczestnik otrzyma indywidualny dostęp do naszego tenanta.

[PL] Analytics Engineering z dbt

Długość warsztatu: Cały dzień (8 godzin)
Forma warsztatu:

Warsztat
(slajdy + ćwiczenia dla uczestników)

Język:
PL
Poziom: 200
Wymagania:

• SQL – poziom podstawowy/średniozaawansowany.
• Pracy z interfejsem wiersza poleceń (cmd) i git – poziom podstawowy.
• Znajomość na poziomie podstawowym przynajmniej jednej z platform – Databricks, Snowflake lub MS Fabric.
• Aktywne konto testowe Databricks, Snowflake lub MS Fabric (wystarczą wersje bezpłatne).

Co przygotować:

• Laptop na którym będą wykonywane ćwiczenia

Cel warsztatu:

Celem warsztatu jest przekazanie uczestnikom praktycznej wiedzy i umiejętności w zakresie budowy i wdrażania potoków danych za pomocą narzędzia dbt. Uczestnicy poznają miejsce dbt w procesie ELT, nauczą się konfiguracji projektów, pracy z modelami oraz testowania jakości danych. Zrozumieją także, jak wdrażać i orkiestrować rozwiązania oparte o dbt na nowoczesnych platformach danych, takich jak Databricks, Snowflake czy Microsoft Fabric.

 

Forma:

  • Wykład (40%), Laboratoria (60%).
  • Warsztat w formule „bring your own platform” – zdecydowana większość prezentowanego kodu będzie uniwersalna, a uczestnicy podczas warsztatu będą mieli okazję zbudować rozwiązanie na Databricks, Snowflake lub MS Fabric. Kurs nie wymaga nakładu
    finansowego ze strony uczestników – wystarczą wersje darmowe (Trial) każdej z platform.

Grupa docelowa:

Programiści SQL, Analitycy i Inżynierowie Danych, zainteresowani nauką budowy i wdrażania potoków danych za pomocą narzędzia dbt.

Wymagania:

  • SQL – poziom podstawowy/średniozaawansowany.
  • Praca z interfejsem wiersza poleceń (cmd) i git – poziom podstawowy.
  • Znajomość na poziomie podstawowym przynajmniej jednej z platform – Databricks, Snowflake lub MS Fabric.
  • Laptop ze stabilnym połączeniem internetowym.
  • Aktywne konto testowe Databricks, Snowflake lub MS Fabric (wystarczą wersje bezpłatne).

 

Agenda:

  • Krótka historia BigData – od baz relacyjnych do nowoczesnych platform danych.
  • Czym różnią się od siebie podejścia ETL i ELT.
  • DataOps i Analytics Engineering.
  • Czym jest, a czym nie jest narzędzie dbt. Jakie jest jego miejsce w procesie ELT.
  • Konfiguracja repozytorium Git oraz projektu dbt-core dla Databricks/Snowflake/MSFabric. [hands-on]
  • Sources, Seeds, Models. [hands-on]
  • Data Tests, Data Freshness. [hands-on]
  • Omówienie podstawowych poleceń dbt run, test, build. [hands-on]
  • Jinja Templates, Macros. [hands-on]
  • Materializations, Incremental Load. [hands-on]
  • Snapshots – implementacja mechanizmów SCD1/SCD2. [hands-on]
  • Packages. [hands-on]
  • Dokumentacja oraz Lineage. [hands-on]
  • Uprodukcyjnienie oraz orkiestracja rozwiązania – omówienie możliwości.
  • dbt Core vs. dbt Cloud.

[PL] Enterprise Databots: Projektowanie i zarządzanie inteligentnymi DataBotami w organizacji

Długość warsztatu: Cały dzień (8 godzin)
Forma warsztatu:

Warsztat (slajdy+ ćwiczenia dla uczestników)

Język:
PL
Poziom: 300
Co przygotować:

Potrzebny będzie laptop z zainstalowanym Python i Visual Studio Code, wraz z rozszerzeniem umożliwiającym pracę w ramach notatników Jupyter.

Odkryj potencjał budowania i wdrażania zaawansowanych DataBotów w organizacji

Zapraszamy na ekskluzywny warsztat poświęcony tworzeniu inteligentnych DataBotów z wykorzystaniem najnowszych technologii Microsoft i Databricks. Podczas tego intensywnego jednodniowego wydarzenia, uczestnicy będą mieli okazję poznać praktyczne aspekty implementacji chatbotów opartych na danych organizacyjnych. Warsztat prowadzony jest przez ekspertów w dziedzinie specjalizujących się w zaawansowanych rozwiązaniach sztucznej inteligencji i uczenia maszynowego, certyfikowanych Microsoft MVP w kategoriach Data i AI.

Pod okiem prowadzących uczestnicy poznają praktyczne zastosowania najnowszych dostępnych technologii, czerpiąc z ich wieloletniego doświadczenia w tworzeniu zaawansowanych rozwiązań AI. Format warsztatów łączy zwięzłe wprowadzenie teoretyczne z rozbudowaną częścią praktyczną, gdzie każdy uczestnik samodzielnie zbuduje i wdroży działające rozwiązanie.

Cel Warsztatu:

Budowa Kompleksowego DataBota: Uczestnicy będą pracować nad stworzeniem inteligentnego chatbota, który będzie potrafił odpowiadać na pytania w oparciu o różnorodne źródła danych organizacyjnych – od nieustrukturyzowanych dokumentów po dane analityczne z baz SQL. Szczególna uwaga zostanie poświęcona zrozumieniu możliwości zarządzania wdrożonym DataBotem.

Kluczowe Elementy:

  • Implementacja bezpiecznego dostępu do danych organizacyjnych
  • Integracja różnorodnych źródeł danych (dokumenty, procedury, bazy SQL)
  • Wykorzystanie najnowszych technologii AI, w tym Microsoft Fabric AI Skills i Databricks Genie
  • Zarządzanie modelami z wykorzystaniem Azure AI Foundry i Databricks Mosaic ML
  • Praktyczne aspekty wdrożenia i zarządzania dostępem użytkowników do Bota.

Wymagane Umiejętności:

Podstawowa znajomość zagadnień związanych z przetwarzaniem danych i sztuczną inteligencją.

Korzyści dla Uczestników:

  • Praktyczne doświadczenie w tworzeniu DataBotów.
  • Poznanie najlepszych praktyk w zakresie bezpieczeństwa i zarządzania dostępem do danych udostępnionych w postaci czatów w organizacjach.
  • Rozpoznanie standardów i kluczowych zasad zarządzania modelami wykorzystywanymi w DataBotach.
  • Zrozumienie architektury nowoczesnych rozwiązań konwersacyjnych.
  • Możliwość konsultacji z ekspertami Microsoft MVP specjalizującymi się w rozwiązaniach Data i AI.

[EN] Execution Plans in Depth

Length of the workshop: Full day (8 hours)
Workshop form:

Lecture and demos

Language:
ENG
Level: 400

Pre-Con Session: Understanding Execution Plans

For troubleshooting slow queries, looking at the execution plan is a good starting point. But sometimes, just looking at the plan does not help. Sometimes you need to dig deeper.

In this full-day pre-con session, you will learn everything you need to take your understanding of execution plans to the next level. For almost every operator you can encounter in an execution plan, we will look at the inner workings, and look at properties that can affect their performance. We will also look at how operators in a plan interact with and affect each other.

Aside from explaining all of the common operators, we will also touch on several operators that were introduced or modified in the newer versions of SQL Server.

In short: After this pre-con, you will be better prepared to look at execution plans, find the spot where it hurts, and then rewrite your query to get a faster execution plan.

If you have seen some execution plans but feel you need to bring your understanding to the next level, then this pre-con is for you.

[EN] Build A Fabric Real-time Intelligence Solution in One Day

Length of the workshop: Full day (8h)
Workshop form:

Workshop (Slides + exercises for participants)

Language:
ENG
Level: 200
What to prepare:

The laptop on which the user will perform the exercises

Real-Time Intelligence in Fabric is designed to enable organizations to bring their streaming, high-granularity, time-sensitive event data into Fabric and build various analytical, visual and action-oriented data applications and experiences with it.

In this session, you will learn about what Fabric Real-Time Intelligence is meant for and will then build an end-to-end solution using streaming data.

What You Will Learn

This session will get you hands-on with:

  • Real-Time Hub
  • Eventstream
  • Eventhouse
  • Data Activator
  • Real-time Dashboards
  • Power BI
  • Copilot

You will be guided by a combination of Microsoft MVPs and Fabric product group members.

End-to-End Solution

The end-to-end solution we build together will encompass:

  • Discovering and cataloging your data streams using Real-Time Hub
  • Connecting to streaming data from various sources around the world
  • Cleaning, normalizing, and preparing data for superior query time experiences
  • Leveraging Copilot to discover streaming data
  • Low-code/no-code experiences for data exploration
  • Developing dashboards

Prelegenci SQLDay 2025

Alberto Ferrari

Damian Widera

Damian Widera

Dani Ljepava

Dr. Dani Ljepava

Estera Kot

Frank Geisler

Hubert Kobierzewski

Hubert Kobierzewski

Hugo Kornelis

Jakub Wawrzyniak

Jakub Wawrzyniak

Johan Ludvig Brattås

Łukasz Grala

Łukasz Grala

Maciej Rubczynski

Maciej Rubczyński

Mladen Andzic

Radosław Szmit

Sasa Popovic

Strahinja Rodic

TOMASZ-KOSTYRKA

Tomasz Kostyrka

Lokalizacja