9:00 – 10:15
Instytut Informatyki, sala 25
Otwarcie konferencji
Prorektor Arkadiusz Lewicki
Artur Yakimovich (Wydział Matematyki i Informatyki, Uniwersytet Wrocławski oraz CASUS)
Generative AI for Inverse Problems in Biomedical Computational Microscopy
Advanced microscopy techniques, including three-dimensional, super-resolution and quantitative phase microscopy, remain at the forefront of biomedical discovery. These methods enable researchers to visualise complex molecular processes and interactions at the level of single molecules or molecular complexes, capturing yet unseen information and pushing the boundaries of our understanding of health and disease. These innovations have been made possible, among others, through rapid progress in biophotonics, as well as computational processing and analysis of image-based data. However, advanced biophotonics comes at the cost of complex equipment, as well as difficult and lengthy data acquisition and necessitates highly-trained personnel. We demonstrate in several works that this hurdle can be addressed using generative and discriminative AI algorithms by formulating the conversion from conventional microscopy modalities like widefield, to advanced like super-resolution, as a set of inverse problems. We show that incorporating nuance of the data domain into the algorithm design, as well as leveraging synthetic data pre-training, leads to better performance in these algorithms. Among other examples, we demonstrate how Generative AI algorithms can be utilised for Virtual Staining of virus infection in cultured cells, allowing for quasi-label-free detection of infected cells.
Łukasz Łaczmański (Laboratorium Genomiki i Bioinformatyki, Instytut Immunologii i Terapii Doświadczalnej im. L. Hirszfelda PAN, Wrocław)
Sztuczna inteligencja w immunoterapii nowotworów
Rozwój sztucznej inteligencji (AI) w ostatnich latach znacząco wpływa na medycynę również w obszarze immunoterapii nowotworów. Od systemów eksperckich po zaawansowane modele głębokiego uczenia, sztuczna inteligencja stała się kluczowym narzędziem w analizie danych klinicznych, molekularnych i obrazowych. Integracja informacji pochodzących z tzw. „jezior danych” obejmujących dane genomowe, transkryptomiczne, histopatologiczne czy obrazowe umożliwia opracowanie modeli predykcyjnych wspomagających decyzje terapeutyczne. W immunoonkologii sztuczna inteligencja wykorzystywana jest m.in. do identyfikacji neoantygenów, projektowania szczepionek personalizowanych oraz przewidywania odpowiedzi pacjentów na immunoterapię wykorzystującą inhibitory punktów kontrolnych układu odpornościowego. Modele uczenia maszynowego pozwalają integrować dane dotyczące występowania patogennych wariantów somatycznych, ekspresji genów, cechach histopatologicznych i parametrach klinicznych, osiągając wysoką skuteczność w klasyfikacji pacjentów i predykcji toksyczności terapii przeciwnowotworowych. Sztuczna inteligencja jest również elementem nowoczesnych systemów klinicznych (CDS, LIMS, EHR), wspomagających analizę wyników i personalizację leczenia. Zastosowania te wymagają jednak zgodności z regulacjami prawnymi UE dotyczącymi wyrobów medycznych (IVDR/MDR) oraz normami jakości (np. ISO 13485, IEC 62304).
Rafał Stottko (Instytut Materiałów Zaawansowanych, Wydział Chemiczny, Politechnika Wrocławska)
RGBChem: reprezentowanie informacji chemicznej w formie obrazu dla predykcji właściwości w warunkach ograniczonej dostępności informacji
Coraz częściej do odkrywania nowych materiałów wykorzystuje się metody uczenia maszynowego (ML) . Aktualnie można wyróżnić dwa typowe podejścia: (1) traktowanie cząsteczek chemicznych jako grafów i wykorzystywanie grafowych sieci neuronowych [1] oraz (2) stosowanie architektur służących do pracy z językiem naturalnym: wówczas wykorzystując kodowanie chemicznych struktur np. przy pomocy metody SMILES [2, 3]. RGBChem [4] to metoda oparta na reprezentacji informacji chemicznej w formie obrazów, które następnie służą do wytrenowania konwolucyjnej sieci neuronowej w celu przewidywania właściwości kwantowo-chemicznych. Poprzez modyfikację arbitralnej kolejności atomów obecnych w plikach .xyz, wykorzystywanych do generowania tych obrazów, wykazano, że możliwe jest zwiększenie rozmiaru początkowego zbioru treningowego poprzez tworzenie wielu unikalnych obrazów na podstawie jednej cząsteczki. Wyniki badań pokazują, że zaproponowane podejście prowadzi do statystycznie istotnej poprawy dokładności modelu, co wskazuje, że RGBChem stanowi skuteczną metodę wykorzystania uczenia maszynowego w sytuacjach, gdy dostępny zbiór danych jest zbyt mały, aby skutecznie zastosować metody ML.
[1] J. Gasteiger, S. Giri, J. T. Margraf, and S. Günnemann, Fast and uncertainty-aware directional message passing for non-equilibrium molecules, arXiv:2011.14115 [cs.LG], 2020.
[2] Ł. Maziarka, T. Danel, S. Mucha, K. Rataj, J. Tabor, and S. Jastrzębski, Molecule Attention Transformer, arXiv:2002.08264 [cs.LG], 2020.
[3] D. Weininger, SMILES, a chemical language and information system. 1. Introduction to methodology and encoding rules, J. Chem. Inf. Comput. Sci., 28(1):31–36, 1988.
[4] R. Stottko, R. Michalski, and B. M. Szyja, RGBChem: Image-like representation of chemical compounds for property prediction, J. Chem. Theory Comput., 21(10):5322–5333, 2025.
Michał Pocheć (Instytut Materiałów Zaawansowanych, Wydział Chemiczny, Politechnika Wrocławska)
Machine Learning w symulacjach molekularnych RNA
Od prostych regresji po zaawansowane modele językowe, dla wielu dziedzin życia "sztuczna inteligencja" stała się ważnym elementem krajobrazu drugiej i trzeciej dekady XXI wieku . Nie inaczej dzieje się z modelowaniem układów w skali molekularnej. Wcześniejsze metody symulacji dzieliły się na prostsze, ale bardzo szybkie (oparte o "klasyczne" oddziaływania atomów) oraz zdecydowanie wolniejsze i dokładniejsze, u podstaw których leżało rozwiązywanie przybliżeń równania Schroedingera. Machine learning (ML) jest szansą, żeby połączyć dokładność podobną do metod kwantowych z szybkością bliższą klasycznym polom siłowym. Niniejsza opowieść skupi się na problemach stających przed naukowcami próbującymi budować modele ML używane do symulacji molekularnych - od tworzenia spójnych i efektywnych zestawów danych do treningu, odpowiednie ich procesowanie, właściwe procedury trenowania aż po sposoby na udokładnianie przewidywań modeli. Pojawią się również dane dotyczące wydajności i dokładności symulacji nukleozydów RNA przeprowadzonych ML i ich porównanie z dotychczas stosowanymi metodami opartymi o Teorię Funkcjonału Gęstości (DFT).
10:30 – 11:40
Instytut Informatyki, sala 25
Marcin Walczyński (Zakład Translatoryki, Instytut Filologii Angielskiej, Uniwersytet Wrocławski)
Sztuczna inteligencja i koniec świata, jaki znał tłumacz
Sztuczna inteligencja wywróciła branżę tłumaczeniową do góry nogami. Jeszcze niedawno tłumacz był strażnikiem sensu, dziś coraz częściej staje się redaktorem tekstów generowanych przez algorytmy. W moim wystąpieniu podejmę próbę pokazania, w jaki sposób narzędzia oparte na dużych modelach językowych – takie jak ChatGPT – zmieniły sposób pracy, profil kompetencji i zawodową tożsamość tłumacza.
Aby lepiej zrozumieć tę rewolucję w branży usług tłumaczeniowych, przedstawię najpierw krótki przegląd wcześniejszych rozwiązań technologicznych: od pierwszych pamięci tłumaczeniowych (Trados, Wordfast) i korpusów równoległych, przez tłumaczenie statystyczne i neuronowe, aż po współczesne modele generatywne. W skrócie omówię ich ograniczenia oraz to, w jaki sposób przygotowały grunt pod obecną zmianę.
W głównej części wystąpienia skupię się na tym, jak sztuczna inteligencja zrewolucjonizowała pracę tłumacza. Przedstawię kilka przykładów z praktyki przekładu, które pokażą zarówno potencjał, jaki kryje się w nowych technologiach, jak i problemy wynikające z postępującej automatyzacji.
Celem mojej prezentacji jest pokazanie, że „koniec świata, jaki znał tłumacz” nie musi oznaczać katastrofy, lecz początek nowej ery, w której technologia i człowiek wspólnie negocjują znaczenia. Jestem przekonany, że tłumacz przyszłości to nie osoba, która odrzuca sztuczną inteligencję lub się jej obawia, ale człowiek, który potrafi ją oswoić i uczynić swoim sojusznikiem.
Monika Zaśko-Zielińska, Jan Krzywdziński, Kamil Wabnic (Wydział Filologiczny, Uniwersytet Wrocławski)
Wzbogacanie autentycznych zasobów językowych. Aplikacja AI do rozpoznawania pisma ręcznego
Celem wystąpienia jest przedstawienie aktualnych potrzeb związanych z wykorzystywaniem systemów sztucznej inteligencji do automatycznego rozpoznawania i przetwarzania pisma ręcznego w kontekście budowania autentycznych zasobów językowych. Korpusy językowe oparte na łatwych do pozyskania danych drukowanych lub tekstach literackich czy urzędowych pomijają znaczącą część praktyk komunikacyjnych. W tym kontekście rozpoznawanie pisma ręcznego otwiera możliwość łatwego przetwarzania autentycznych danych językowych w formę, która może być dalej analizowana metodami lingwistycznymi. W wystąpieniu omówiono wyzwania stojące przed narzędziami do rozpoznawania tekstu pisanego - zróżnicowanie grafemów, rozróżnienia wynikające z idiostylu, nieczytelna postać materiału źródłowego, wpływ podłoża - oraz zaprezentowano przykłady zastosowania współczesnych modeli do rozpoznawania tekstu pisanego. Szczególny nacisk położono na potencjał integracji danych rękopiśmiennych z korpusami językowymi, co umożliwia bardziej reprezentatywne opisywanie praktyk językowych i poszerzanie zakresu badań nad wariantywnością, rejestrami oraz pragmatyką tekstów nienormatywnych. Zaproponowane podejście stanowi krok w kierunku pełniejszego udokumentowania różnorodności językowej oraz ułatwia dostęp do dotychczas trudno przetwarzalnych zasobów.
Tomasz Płonka, Maja Ducka, Aleksandra Furczyk, Szymon Sułowski, Grzegorz Ziółkowski (Wydział Nauk Historycznych i Pedagogicznych, Uniwersytet Wrocławski oraz Wydział Mechaniczny, Politechnika Wrocławska)
Zastosowanie sztucznej inteligencji (AI) w badaniach sztuki kultury magdaleńskiej z terenu ziem polskich (16,5 – 12 tys. lat p.n.e.)
Sztuka kultury magdaleńskiej (paleolit górny) z terenu dzisiejszej Polski obejmuje ryty wykonywane narzędziami krzemiennymi na przedmiotach z kości i poroża oraz figurki antropomorficzne. Motywy te mają głównie charakter geometryczny – są to różnorodne kombinacje linii prostych i krzywych, kresek oraz figur geometrycznych. Czasami tworzą one skomplikowane kompozycje, składające się z wielu elementów. W takich wypadkach podstawowym dla badaczy sztuki paleolitycznej problemem jest ustalenie, czy wzór taki powstał w wyniku działania jednej osoby i czy wyryto go jednym narzędziem.
Badania tego rodzaju wykonywano do tej pory za pomocą obserwacji mikroskopowych linii ornamentu oraz analizy obrazów 3D uzyskanych różnymi metodami. Nasz projekt zakłada zastosowanie algorytmów AI do badania liczby wykonawców oraz narzędzi użytych do wykonania dawnych rytów. W pierwszej fazie projektu obrazy tomograficzne ornamentów posłużą do zapoznania sieci z różnymi formami ornamentów magdaleńskich. W fazie drugiej grupa eksperymentatorów wykona różnego rodzaju motywy ornamentacyjne, posługując się rozmaitymi narzędziami krzemiennymi. Staną się one podstawą do treningu sieci w rozpoznawaniu rytów, wykonywanych przez odrębnych rytowników za pomocą różnych narzędzi. W końcowej fazie projektu wytrenowana sieć zostanie wykorzystana do analizy złożonego wzoru geometrycznego wyrytego na żebrze z Jaskini Maszyckiej. Wyniki tej pracy porównamy z naszymi wnioskami uzyskanymi na podstawie tradycyjnej analizy ornamentu. Badania odbywają się w ramach projektu The Magdalenian art in Poland: technology, new departures and social meaning (nr 2023/51/B/HS3/00261), finansowanego przez Narodowe Centrum Nauki (OPUS 26).
Dorota Klimek-Jankowska (IDN Slavicus, Wydział Neofilologii, Uniwersytet Wrocławski)
Czy modele sztucznej inteligencji potrafią czytać w naszych umysłach?
Badanie funkcjonowania ludzkiego umysłu stanowi wyzwanie, ponieważ nie można obserwować procesów poznawczych bezpośrednio. Dlatego wykorzystuje się metody pośrednie, takie jak okulografia (eye-tracking), która pozwala na śledzenie ruchu gałek ocznych podczas czytania i przetwarzania języka w mózgu i pomiar różnych parametrów z tym związanych. Do niedawna badania okulograficzne były prowadzone w pojedynczych laboratoriach i ograniczone do kilku języków. Ostatnio sytuacja zaczęła się zmieniać. W prezentacji przedstawię cele projektu MultiplEYE https://multipleye.eu/ - dużej europejskiej akcji COST, w której ponad 200 naukowców tworzy największy na świecie wielojęzyczny zbiór danych okulograficznych z 27 języków. W ramach projektu, członkowie laboratorium psycholingwistycznego RoNaLd https://ronald.uwr.edu.pl/ z Uniwersytetu Wrocławskiego wraz z badaczami z SWPS w Warszawie i Uniwersytetu Jagiellońskiego zbierają dane dla języka polskiego od około 250 uczestników (młodych dorosłych i osób starszych). Zebrane dane zostaną udostępnione społeczności naukowej. Celem projektu MultiplEYE jest między innymi wykorzystanie danych do trenowania modeli AI wykrywających trudności w czytaniu związane z dysleksją, ADHD, demencją czy innymi zaburzeniami lub cechami osobniczymi danej populacji, wpływającymi na przetwarzanie tekstu.
Opowiem także o EyeBench https://github.com/EyeBench/eyebench, pierwszym benchmarku oceniającym modele sztucznej inteligencji, które próbują dekodować informacje poznawcze i językowe z ruchu oczu. Modele te potrafią przewidywać poziom zrozumienia tekstu, skupienie uwagi czy rozpoznawać dysleksję. Potrafią też zidentyfikować konkretną osobę po sposobie czytania. Innymi słowy, wykorzystujemy dane okulograficzne, by uczyć AI wnioskowania o procesach zachodzących w mózgu podczas czytania.
Wspomnę również o badaniach wykorzystujących pomiary aktywności mózgu EEG i fMRI w badaniach nad mind-captioning umożliwiających generowanie opisów treści mentalnych i zapisujących myśli za pomocą tekstu na podstawie aktywności mózgu. Pojawia się w związku z tym ważne pytanie o prywatność umysłu i przyszłe konsekwencje technologii zdolnych do dekodowania treści myśli.
11:40 – 12:20
Instytut Informatyki, obok sali 25
Wojciech Aszkiełowicz, Hubert Berlicki, Jan Burdzicki, Igor Jakus (Wydział Matematyki i Informatyki, Uniwersytet Wrocławski)
Poster: DINOmite – Adversarial Robustness of DINOv3 Vision Transformers
Modele głębokiego uczenia, zwłaszcza vision transformery, coraz częściej trafiają do zastosowań krytycznych, takich jak rozpoznawanie znaków drogowych czy analiza obrazu medycznego. W takich scenariuszach szczególnie groźne okazują się ataki adwersarialne – subtelne, często niewidoczne dla człowieka modyfikacje obrazu, prowadzące do błędnych decyzji systemu. Jednocześnie rodzina modeli DINOv3 stała się jednym z domyślnych wyborów do ekstrakcji cech wizualnych.
W projekcie DINOmite badamy odporność na ataki adwersarialne modelu DINOv3 wykorzystywanego jako zamrożony ekstraktor cech, nad którym trenujemy lekki klasyfikator dopasowany do danego zbioru danych. Analizujemy zachowanie takiej architektury na trzech datasetach o rosnącej złożoności: CIFAR-10, GTSRB oraz Tiny ImageNet, stosując różne klasy ataków adwersarialnych, m.in. FGSM, PGD i Carlini–Wagner. Uzupełniamy tę analizę implementacją trzech powszechnie stosowanych metod obrony – PGD Adversarial Training, TRADES oraz MART – aby ocenić ich efektywność w połączeniu z reprezentacjami DINOv3.
Wstępne wyniki sugerują, że self-supervised reprezentacje DINOv3 nie są z natury odporne na ataki adwersarialne, lecz stanowią solidny punkt wyjścia do projektowania skuteczniejszych metod wzmacniania bezpieczeństwa modeli wizyjnych.
Przemysław Cuprych (Wydział Chemii, Uniwersytet Wrocławski)
Poster: Spektroskopia oscylacyjna i uczenie maszynowe w diagnostyce chorób reumatycznych
Reumatoidalne i łuszczycowe zapalenie stawów (RZS i ŁZS) to przewlekłe choroby autoimmunologiczne, które pomimo różnic w patogenezie charakteryzują się bardzo podobnymi objawami. W związku z tym istnieje zapotrzebowanie na nowe metody wspierające szybką i wiarygodną diagnostykę obu schorzeń, co może skutkować natychmiastowym rozpoczęciem leczenia oraz opracowaniem spersonalizowanej strategii terapeutycznej.
Zarejestrowano widma Ramana oraz widma w bliskiej podczerwieni (NIR) liofilizatów surowicy krwi pacjentów z diagnozą RZS, ŁZS oraz grupy kontrolnej. Oznaczono również szereg parametrów biochemicznych materiału biologicznego dla każdej z badanych grup. Analizy dyskryminacyjne przeprowadzono przy użyciu metody cząstkowych najmniejszych kwadratów (PLS-DA) oraz sztucznych sieci neuronowych typu counter-propagation (CP-ANN) zarówno dla danych widmowych. Opracowano modele hybrydowe w oparciu o łączone dane widmowe i biochemiczne, do selekcji zmiennych wykorzystano techniki iPLS oraz VIP scores. Wydajność opracowanych modeli oceniono z wykorzystaniem takich metryk jak czułość, swoistość oraz ogólna dokładność, obliczona jako średnia ważona czułości uzyskanych dla trzech modelowanych klas. Otrzymane wyniki potwierdzają, że zastosowanie narzędzi obliczeniowych wykorzystujących metody uczenia maszynowego i głębokiego wspomaga szybką diagnostykę chorób zapalnych stawów, dla których tradycyjne metody rozpoznania są czasochłonne i niejednoznaczne.
Agnieszka Grala (Wydział Matematyki i Informatyki, Uniwersytet Wrocławski)
Poster: Głębokie przełączalne filtry Kalmana
W wielu dziedzinach - od neuronauki i analizy zachowania po sygnały inżynieryjne - dysponujemy długimi, wysokowymiarowymi szeregami czasowymi, dla których nie mamy etykiet. Potrzebne są więc metody nienadzorowanej segmentacji, które potrafią automatycznie wykrywać zmiany dynamiki i ukryte "tryby" zachowania systemu. Poster przedstawia podejście rozwijające ideę przełączalnych filtrów Kalmana poprzez parametryzację klasycznych probabilistycznych modeli za pomocą sieci neuronowych. Taka konstrukcja łączy elastyczność głębokich modeli z interpretowalną strukturą przełączalnego modelu stanu: zachowuje dyskretne tryby dynamiki, macierze przejścia i emisji oraz probabilistyczne wnioskowanie, a jednocześnie pozwala dopasowywać te parametry w sposób nieliniowy do złożonych danych.
Andrzej Jarynowski (Państwowa Inspekcja Sanitarna)
Poster: "Chronimy zdrowie z myślą o przyszłości" przy użyciu AI w ocenie ryzyka biologicznego w Dolnośląskiej Inspekcji Sanitarnej
Wykorzystanie dużych modeli językowych (LLM) znacząco zwiększyło skuteczność oceny ryzyka i wykrywania zagrożeń biologicznych w Polsce mi.in dzięki powołaniu nowych jednostek jak Wywiad Epidemiologiczny czy Zespołu Spraw Analiz Zagrożeń dla Zdrowia Publicznego w Perspektywie One Health w strukturze WSSE/UW Wrocław.
Analiza katastrofy ekologicznej na Odrze (2022) z użyciem AI ujawniła wyraźną anomalię komunikacyjną na odcinku Wrocław–Głogów, co umożliwiło wczesne wskazanie biologicznego charakteru zdarzenia. Równocześnie wykryto transgraniczne przenoszenie narracji o „rtęci” między środowiskami polskimi i niemieckimi, identyfikując kluczowe węzły ich rozpowszechniania. Połączenie danych społecznościowych z modelem reakcji–dyfuzji wykazało istotne zależności między obecnością sygnałów społecznych a kierunkiem transportu toksyn.
W powodzi 2024 integracja OSINT z hydrologią mobilną oraz zobrazowaniami satelitarnymi i dronowymi poprawiła wskazywanie priorytetowych miejsc poboru prób oraz przyspieszyła wykrywanie narracji dezinformacyjnych dotyczących jakości wody i ryzyka zdrowotnego. LLM umożliwiły zautomatyzowaną klasyfikację sygnałów, budowę taksonomii plotek i identyfikację anomalii w czasie rzeczywistym.
W epizodzie Haff 2025 AI ułatwiła szybkie filtrowanie zgłoszeń dotyczących spożycia lokalnych ryb i ocenę ich wiarygodności w warunkach niedostatecznej ciągłości historycznej dokumentacji. Wyniki potwierdzają, że LLM wzmacniają wykrywanie anomalii, modelowanie ryzyka i analizę infodemii, stanowiąc podstawę do budowy zautomatyzowanego systemu wczesnego ostrzegania One Health dla naszego województwa.
Julia Kiczka (Wydział Matematyki i Informatyki, Uniwersytet Wrocławski)
Poster: Deep Learning for Anomaly Detection in Time Series
Wykrywanie anomalii szeregach czasowych jest kluczowe w takich dziedzinach jak medycyna, finanse czy monitorowanie systemów. Wiele popularnych metod opiera się jedynie na błędzie rekonstrukcji z modeli takich jak autoenkodery, transformatory czy modele dyfuzyjne. Moja praca magisterska bada, czy przestrzeń latentna sama w sobie może zawierać istotne informacje dla tego zadania, wykraczające poza to, co ujawnia błąd rekonstrukcji. Badam, jak modyfikować i strukturyzować reprezentacje latentne, aby były bardziej informatywne, np. poprzez uczenie kontrastowe. Testuję również, czy proste statystyki w przestrzeni embeddingów (takie jak np. odległości do najbliższych sąsiadów) mogą same w sobie dostarczać użytecznych wskaźników anomalii. Kolejnym istotnym aspektem mojej pracy jest definiowanie znaczących anomalii, czyli przypadków, które nie są jedynie odchyleniami w amplitudzie, lecz stanowią subtelne lub strukturalne odstępstwa. W celu ich identyfikacji proponuję techniki symulowania anomalii oraz ich analizy, które wykraczają poza standardowe zestawy benchmarkowe. Przeprowadzone eksperymenty numeryczne potwierdzają, że nawet proste modele neuronowe oparte na odszumiających autoenkoderach pozwalają osiągnąć lepsze wyniki niż tradycyjne modele uczenia maszynowego, takie jak IsolationForest czy Local Outlier Factor. Co więcej, dzięki wykorzystaniu latentnych reprezentacji, równolegle z zadaniem detekcji anomalii, możliwe jest również przeprowadzanie klasteryzacji szeregów czasowych oraz redukcji wymiaru danych. Powyższy poster był wcześniej prezentowany podczas konferencji MLinPL 2025: https://conference.mlinpl.org/program#poster-33
Maria Szlasa, Jan Andrzejewski (Wydział Matematyki i Informatyki, Uniwersytet Wrocławski)
Poster: Grafowo-temporalne modele głębokie w analizie multispektralnych obrazów satelitarnych: rola czasu i kodowania informacji pogodowych
Poster przedstawia wykorzystanie grafowo-temporalnych sieci neuronowych do analizy multispektralnych obrazów satelitarnych z uwzględnieniem kluczowej roli czasu w interpretacji sygnałów widmowych. Badania koncentrują się na kodowaniu embeddingów czasowych za pomocą danych pogodowych, które działają jako wskaźnik etapów wegetacji roślin i pozwalają lepiej zrozumieć zmienność obserwowaną na zdjęciach. Integracja informacji meteorologicznej z relacjami przestrzennymi w modelach grafowo-temporalnych umożliwia bardziej interpretowalne wnioskowanie, poprawia rozróżnianie procesów sezonowych i krótkotrwałych zjawisk oraz zwiększa jakość analizy dynamiki środowiskowej.
12:20 – 13:30
Instytut Informatyki, sala 25
Kaja Kowalczewska (Wydział Prawa, Administracji i Ekonomii, Uniwersytet Wrocławski)
Prawne i etyczne wyzwania związane z zastosowaniem śmiercionośnych systemów opartych na AI
Wystąpienie przedstawia kluczowe wyzwania prawne i etyczne związane z wojskowymi zastosowaniami sztucznej inteligencji, ze szczególnym uwzględnieniem autonomicznych systemów broni. Omawiam zależności między zasadami międzynarodowego prawa humanitarnego a działaniem modeli algorytmicznych, w tym błędy klasyfikacji, stronniczość danych oraz problemy odpowiedzialności. Celem jest pokazanie, jak pozornie techniczne decyzje obliczeniowe mogą prowadzić do skutków o fundamentalnym znaczeniu dla życia ludzi i dla prawa wojny.
Amnesty International, Israel and Occupied Palestinian Territories: Automated Apartheid: How facial recognition fragments, segregates and controls Palestinians in the OPT, link: https://www.amnesty.org/en/documents/mde15/6701/2023/en/
+972 Magazine, ‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza, link: https://www.972mag.com/lavender-ai-israeli-army-gaza/
Karolina Kremens (Wydział Prawa, Administracji i Ekonomii, Uniwersytet Wrocławski)
Algorytmy a sprawiedliwość: jak sztuczna inteligencja zmieniając proces karny dyskryminuje jego uczestników
Sztuczna inteligencja wkracza do wymiaru sprawiedliwości w sprawach karnych, obiecując wzmocnienie szybkości i efektywności postępowań karnych, ale jednocześnie wprowadza mechanizmy, które mogą podważyć zasadę równości stron, a także zasady obiektywizmu i bezstronności. W referacie w oparciu o konkretne case study zostanie omówione, jak technologie przetwarzania języka naturalnego pozwalają automatyzować i tłumaczyć teksty prawnicze i jakie niesie to za sobą konsekwencje, jak systemy biometryczne wykorzystują mechanizmy rozpoznawanie twarzy i innych cech fizycznych do identyfikacji osób i dlaczego przebiegać to może w sposób dyskryminujący oraz jak systemy predykcyjne mogą wspomóc w przewidywaniu zachowań w postępowaniu karnym. Analiza kazusów pokaże, że za obietnicą innowacji kryją się uprzedzenia, błędy i dyskryminacja – od niejawnych założeń w danych treningowych po wpływ na decyzje o zatrzymaniu, wyroku czy zwolnieniu warunkowym. Wystąpienie stawia pytanie, czy technologia może być sprzymierzeńcem sprawiedliwości, czy raczej jej cichym sabotażystą, oraz gdzie przebiega granica odpowiedzialności, gdy zawodzi algorytm.
Filip Wójcik (Uniwersytet Ekonomiczny)
Wykrywanie nielegalnych transakcji finansowych z wykorzystaniem głębokich grafowych sieci neuronowych. Studia przypadków.
Wystąpienie przedstawia zastosowanie heterogenicznych grafowych sieci neuronowych (ang. Heterogeneous Graph Neural Networks, HGNN) w wykrywaniu nielegalnych transakcji finansowych, obejmując wyniki trzech publikacji naukowych:
1. analizę realnego przypadku opartego na danych z wycieku BuzzFeed News (FinCEN Files),
2. analizę komparatywną na syntetycznych zbiorach danych
3. opracowanie implementacyjne omawianych rozwiązań.
Zaprezentowane zostaną kluczowe aspekty architektury głębokich sieci grafowych (w tym przewaga modeli GNN nad innymi w analizie złożonych struktur relacyjnych), oraz potencjał heterogenicznych grafów wynikający z możliwości modelowania różnorodnych typów wierzchołków i relacji.
Główna część prezentacji skupi się na dwóch studiach przypadku: wykrywaniu procederu prania pieniędzy (ang. Anti-Money Laundering, AML) na podstawie eksperymentów na syntetycznych danych oraz praktyczne śledzenie rzeczywistych transakcji finansowych z wykorzystaniem danych BuzzFeed News. W części technicznej przedstawione zostaną aspekty projektowania i trenowania grafowych sieci neuronowych, obejmujące techniki przygotowania danych, projektowanie architektury (w tym sieci izomorficzne, ang. Graph Isomorphism Networks, GIN), specyficzne metody trenowania oraz rekomendacje dotyczące rozwoju rozwiązań opartych na GNN w kontekście zastosowań finansowych.
Oskar Bujacz (Wydział Matematyki i Informatyki, Uniwersytet Wrocławski)
Prompt Injection Attacks - jak bezpieczne są obecne systemy LLM?
Wzrost wykorzystania Dużych Modeli Językowych (LLM) w różnych systemach sprawił, że ataki typu Prompt Injection stały się kluczowym zagrożeniem dla bezpieczeństwa danych i reputacji firm. Chociaż istnieją już anglojęzyczne, a nawet wielojęzyczne modele ochronne (safety guards), ten obszar pozostaje niemal całkowicie niezbadany dla języka polskiego, który charakteryzuje się specyficznymi niuansami i mniejszą ilością dostępnych zasobów.
W niniejszym wystąpieniu skoncentrujemy się na ocenie odporności polskich i wielojęzycznych mechanizmów bezpieczeństwa na ataki Prompt Injection w kontekście polskojęzycznym. Analizie poddaliśmy modele takie jak PL-Guard, Llama-Guard i PolyGuard, a także autorski klasyfikator oparty na modelu Bielik. Pokażemy, jak można niewielkim kosztem obejść te modele, stosując algorytm ewolucyjny. Algorytm ten został zaprojektowany do generowania polskojęzycznych, subtelnych i skutecznych ataków, wykorzystując charakterystyczne cechy języka polskiego, które pozwalają ominąć istniejące zabezpieczenia. Prezentację zamyka propozycja modyfikacji istniejących modeli ochronnych, mająca na celu poprawienie skuteczności odpierania ataków typu prompt injection i eliminację wykrytych podatności.
13:45 – 14:55
Instytut Informatyki, sala 25
Krzysztof Graczyk (Wydział Fizyki i Astronomii, Uniwersytet Wrocławski)
Metody uczenia maszynowego w fizyce oddziaływań fundamentalnych
Podczas referatu przedstawię główne wyzwania stojące przed fizyką oddziaływań fundamentalnych oraz sposoby, w jakie badacze wykorzystują metody uczenia maszynowego w swoich analizach. Jako przykład omówię fizykę oddziaływań leptonów z materią jądrową. Pokażę również, w jaki sposób do modelowania tych procesów stosujemy transfer learning i modele generatywne.
Radosław Miernik (Wydział Matematyki i Informatyki, Uniwersytet Wrocławski)
Regular Games - Język Ogólnego Opisu Gier Oparty o Automaty Skończone
Regular Games - Język Ogólnego Opisu Gier Oparty o Automaty Skończone"
Regular Games to system dedykowany do _General Game Playing_ (GGP) -- dziedziny sztucznej inteligencji zajmującej się tworzeniem programów potrafiących grać w wiele różnych gier. W przeciwieństwie do klasycznego podejścia, gdzie każda gra ma swój odpowiadający program, system GGP jest w stanie symulować rozgrywki dowolnej gry opisanej w zaproponowanym przez nas języku. Opisywalna przez nasz język klasa gier obejmuje wszystkie skończone turowe gry z niepełną informacją; mieszczą się tutaj nie tylko popularne gry planszowe jak Go czy Szachy, ale także gry karciane jak Poker oraz nowoczesne strategiczne gry planszowe jak Catan czy Monopoly.
Konstrukcja opisu danej gry polega na stworzeniu automatu skończonego opisującej jej przebieg. Pozwala to na wykorzystanie istniejących twierdzeń i algorytmów z teorii języków formalnych, np. w celu optymalizacji pora automatycznego analizowania poprawności. Tak powstały automat może być też skompilowany, co jeszcze bardziej przyspiesza jego działanie, czyniąc nasz system aktualnie najbardziej obliczeniowo efektywnym pośród konkurencyjnych rozwiązań. Jest to szczególnie ważne w tej dziedzine, bo większość badanych problemów wymaga ogromnej liczby symulacji.
By wspomóc badaczy i projektantów gier, system Regular Games posiada zintegrowane środowisko programistyczne z wbudowanym kolorowaniem składni, wizualizacją wynikowego automatu, narzędzia do liczenia wielu statystyk gry i rozgrywek oraz uproszczony interfejs do bezpośredniego grania. Przygotowaliśmy także translatory z innych systemów, co pozwala na bezpośrednie wykorzystanie już istniejących gier.
Praca ukaże się na konferencji AAAI w styczniu 2026 roku.
Roland Zarzycki (Wydział Nauk Społecznych, Uniwersytet Wrocławski)
W poszukiwaniu habitusu maszyn. Studium komparatywne struktur narracyjnych i ich uwarunkowań klasowych w wypowiedziach ludzi oraz tekstach generowanych przez sztuczną inteligencję
Rozwój generatywnej sztucznej inteligencji otwiera nowe możliwości i wyzwania w socjologii, zwłaszcza w obszarze analizy relacji między strukturami narracyjnymi a uwarunkowaniami klasowymi. Modele generatywne, trenowane na zróżnicowanych danych mogą nie tylko odzwierciedlać istniejące struktury narracyjne, lecz także je współtworzyć, stając się nie-ludzkimi aktorami w społeczeństwie sieciowym, aktorami o określonym habitusie (Airoldi). W naszym badaniu porównujemy narracje tworzone przez ludzi i przez AI, oparte na identycznym scenariuszu rozmowy o przyszłości potomstwa oraz rodzicielskich oczekiwaniach i fantazjach. Analizujemy, czy i w jaki sposób modele AI reprodukują podziały klasowe, a także czy można przypisać im określony habitus. Odwołując się do koncepcji klas i kapitałów w ujęciu Bourdieu oraz jej współczesnych rozwinięć (Gdula, Sadura, Domański), pytamy, w czyim imieniu „mówi” AI, jakie interesy reprezentuje i w jaki sposób uczestniczy w reprodukcji klasowych struktur narracyjnych w polskim kontekście społecznym.
Mikołaj Słupiński (Wydział Matematyki i Informatyki, Uniwersytet Wrocławski) Rekurencyjne Nieparametryczne Modele Bayesowskie
Ukryty Model Markova o Hierarchicznym Priorze Dirichleta (HDP-HMM) stanowi naturalne bayesowskie nieparametryczne rozszerzenie klasycznego Ukrytego Modelu Markova. Pierwszym znaczącym usprawnieniem był lepki HDP-HMM (sticky HDP-HMM) w celu wzmocnienia prawdopodobieństwa samotrwania w modelu HDP-HMM. Następnie zaproponowano rozplątany lepki HDP-HMM (disentangled sticky HDP-HMM), aby rozdzielić siłę priorów dla trwania w tym samym stanie i przejść między stanami. Jednakże lepki HDP-HMM zakłada, że prawdopodobieństwo samotrwania nie zmienia się w czasie, co ogranicza jego ekspresywność. W niniejszej pracy rozwijamy wcześniejsze badania nad lepkim HDP-HMM i rozplątane lepkim HDP-HMM, opracowując bardziej ogólny model: rekurencyjny lepki HDP-HMM (RS-HDP-HMM). Opracowaliśmy nową strategię próbkowania Gibbsa umożliwiającą efektywne wnioskowanie w tym modelu. Pokazujemy, że RS-HDP-HMM przewyższa rozplątany lepki HDP-HMM, lepki HDP-HMM oraz HDP-HMM zarówno w segmentacji danych syntetycznych, jak i rzeczywistych.