The day before the official start of the conference, we invite those interested to attend additional, paid workshops in Polish, held onsite.
* Warsztaty będą prowadzone w języku polskim.
Z jednej strony duże modele językowe (large language models) imponują swoimi możliwościami, pozwalając w wielu czynnościach naśladować pracę człowieka. Z drugiej jednak strony, sposób ich działania tak bardzo różni się od znanych nam od dekad aplikacji, że ich wdrożenie stawia nawet przed doświadczonymi zespołami IT zupełnie nowe wyzwania.
Aby ułatwić wdrożenie LLM w organizacji zaprosiliśmy ekspertów, którzy przeszli przez ten proces i mogą podzielić się swoimi doświadczeniami podczas praktycznych warsztatów. Uczestnicy poznają nie tylko zalety dużych modeli językowych, ale przede wszystkim ryzyka i wyzwania związane z tym procesem i możliwe rozwiązania. Warsztaty na temat praktycznego wdrażania large language models koncentrują się na użyteczności i rozsądnym podejściu, zaczynają od dokładnego omówienia narzędzi LLM i scenariuszy, w których… duży model językowy wcale nie jest najlepszym wyborem!
Warsztat skierowany jest do osób z działów IT (IT managerowie, DevOps, product managerowie, itd.) lub zajmujących się procesami w organizacjach, które wspólnie z zespołem technicznym stają przed wyzwaniem wdrożenia dużego modelu językowego.
Podstawowa wiedza na temat działania dużych modeli językowych (znajomość pojęć: large language model, machine learning, robot proces automation, trenowanie modelu, dotrenowywanie modelu, itp.)
Duże modele językowe, zwłaszcza multimodalne, coraz częściej przedstawiane są jako uniwersalne narzędzia do rozwiązywania niemal wszystkich problemów biznesowych - niczym szwajcarskie scyzoryki w świecie AI. Czy słusznie? Jakie rozwiązanie należy wybrać: GPT, Claude, Gemini, LLaMA, Mistral? A może lepiej postawić na polskie, czyli Bielik albo PLLuM? Jak poruszać się w dynamicznym świecie, gdzie co kwartał pojawiają się nowe wersje LLM-ów? A może w danym projekcie w ogóle nie trzeba stosować dużego modelu językowego, ale lepiej sprawdzi się machine learning albo NLP?
W trakcie wystąpienia usłyszą praktyczne porady dotyczące pracy z LLM-ami:
Przedstawione zostaną również typowe wyzwania przy stosowaniu LLM-ów oraz porady, kiedy warto postawić na ich wszechstronność, a kiedy lepiej sięgnąć po rozwiązania bardziej wyspecjalizowane.
SamoobsługaNEXT jest rozwinięciem istniejącego już procesu, który umożliwia klientowi wyliczenie wysokości odszkodowania zaraz po zgłoszeniu. Do istniejącej już Samoobsługi dodano sztuczną inteligencję, która została nauczona Ogólnych Warunków Ubezpieczenia PZU DOM. AI sprawdza czy w tym konkretnym przypadku klientowi przysługuje odszkodowanie i jeżeli uzna, że tak - jest ono wypłacane automatycznie przez roboty. Dzięki temu klient PZU może otrzymać odszkodowanie, już następnego dnia po zgłoszeniu szkody.
W trakcie prezentacji dowiesz się m.in.:
Poznaj kulisy budowania i skalowania innowacyjnych rozwiązań GenAI do masowego tworzenia treści w Allegro. To praktyczne case study, które pokazuje, jak przejść od eksperymentów do wdrożeń, które realnie zmieniają biznes.
W trakcie prezentacji dowiesz się:
LLM są użytecznymi narzędziami, ale jednocześnie dużym wyzwaniem w obszarze bezpieczeństwa. Ich specyficzny, zupełnie inny od klasycznych aplikacji sposób działania, powoduje, że wszystkie znane techniki cyberbezpieczeństwa mogą okazać się niedostatecznie skuteczne. Omówione zostaną różnego rodzaju zagrożenia, a także możliwe scenariusze uniknięcia ataków. Prezentowany materiał będzie sięgał po frameworki agentowe: Microsoft MAF, Google ADK, OpenAI Agents SDK, Anthropic Agent SDK, Alibaba AgentScope, AG2 (Autogen) dla zilustrowania zagrożeń.
Pobieranie biogramu... Proszę czekać...

Move beyond the top-k bottleneck by shifting from naive vector similarity to a structured approach that treats data as “things, not strings”. This workshop explores the implementation of Graph RAG and Knowledge Graphs to enable hierarchical reasoning and community-level summarization, allowing agents to answer complex, global questions that traditional RAG misses. We will also deep-dive into the emerging “trillion-dollar opportunity” of Context Graphs, which move beyond static facts to map decision traces, temporal changes, and operational tribal knowledge - effectively turning disconnected data into a system of meaning for truly autonomous agents.