Tytuły i abstrakty są na bieżąco uzupełniane. Abstrakty są też dostępne na stronie programu.
Oskar Bujacz
Wydział Matematyki i Informatyki
Uniwersytet Wrocławski
Wzrost wykorzystania Dużych Modeli Językowych (LLM) w różnych systemach sprawił, że ataki typu Prompt Injection stały się kluczowym zagrożeniem dla bezpieczeństwa danych i reputacji firm. Chociaż istnieją już anglojęzyczne, a nawet wielojęzyczne modele ochronne (safety guards), ten obszar pozostaje niemal całkowicie niezbadany dla języka polskiego, który charakteryzuje się specyficznymi niuansami i mniejszą ilością dostępnych zasobów.
W niniejszym wystąpieniu skoncentrujemy się na ocenie odporności polskich i wielojęzycznych mechanizmów bezpieczeństwa na ataki Prompt Injection w kontekście polskojęzycznym. Analizie poddaliśmy modele takie jak PL-Guard, Llama-Guard i PolyGuard, a także autorski klasyfikator oparty na modelu Bielik. Pokażemy, jak można niewielkim kosztem obejść te modele, stosując algorytm ewolucyjny. Algorytm ten został zaprojektowany do generowania polskojęzycznych, subtelnych i skutecznych ataków, wykorzystując charakterystyczne cechy języka polskiego, które pozwalają ominąć istniejące zabezpieczenia. Prezentację zamyka propozycja modyfikacji istniejących modeli ochronnych, mająca na celu poprawienie skuteczności odpierania ataków typu prompt injection i eliminację wykrytych podatności.
Krzysztof Graczyk
Wydział Fizyki i Astronomii
Uniwersytet Wrocławski
Podczas referatu przedstawię główne wyzwania stojące przed fizyką oddziaływań fundamentalnych oraz sposoby, w jakie badacze wykorzystują metody uczenia maszynowego w swoich analizach. Jako przykład omówię fizykę oddziaływań leptonów z materią jądrową. Pokażę również, w jaki sposób do modelowania tych procesów stosujemy transfer learning i modele generatywne.
Dorota Klimek-Jankowska
IDN Slavicus
Wydział Neofilologii
Uniwersytet Wrocławski
Badanie funkcjonowania ludzkiego umysłu stanowi wyzwanie, ponieważ nie można obserwować procesów poznawczych bezpośrednio. Dlatego wykorzystuje się metody pośrednie, takie jak okulografia (eye-tracking), która pozwala na śledzenie ruchu gałek ocznych podczas czytania i przetwarzania języka w mózgu i pomiar różnych parametrów z tym związanych. Do niedawna badania okulograficzne były prowadzone w pojedynczych laboratoriach i ograniczone do kilku języków. Ostatnio sytuacja zaczęła się zmieniać. W prezentacji przedstawię cele projektu MultiplEYE https://multipleye.eu/ - dużej europejskiej akcji COST, w której ponad 200 naukowców tworzy największy na świecie wielojęzyczny zbiór danych okulograficznych z 27 języków. W ramach projektu, członkowie laboratorium psycholingwistycznego RoNaLd https://ronald.uwr.edu.pl/ z Uniwersytetu Wrocławskiego wraz z badaczami z SWPS w Warszawie i Uniwersytetu Jagiellońskiego zbierają dane dla języka polskiego od około 250 uczestników (młodych dorosłych i osób starszych). Zebrane dane zostaną udostępnione społeczności naukowej. Celem projektu MultiplEYE jest między innymi wykorzystanie danych do trenowania modeli AI wykrywających trudności w czytaniu związane z dysleksją, ADHD, demencją czy innymi zaburzeniami lub cechami osobniczymi danej populacji, wpływającymi na przetwarzanie tekstu.
Opowiem także o EyeBench https://github.com/EyeBench/eyebench, pierwszym benchmarku oceniającym modele sztucznej inteligencji, które próbują dekodować informacje poznawcze i językowe z ruchu oczu. Modele te potrafią przewidywać poziom zrozumienia tekstu, skupienie uwagi czy rozpoznawać dysleksję. Potrafią też zidentyfikować konkretną osobę po sposobie czytania. Innymi słowy, wykorzystujemy dane okulograficzne, by uczyć AI wnioskowania o procesach zachodzących w mózgu podczas czytania.
Wspomnę również o badaniach wykorzystujących pomiary aktywności mózgu EEG i fMRI w badaniach nad mind-captioning umożliwiających generowanie opisów treści mentalnych i zapisujących myśli za pomocą tekstu na podstawie aktywności mózgu. Pojawia się w związku z tym ważne pytanie o prywatność umysłu i przyszłe konsekwencje technologii zdolnych do dekodowania treści myśli.
Kaja Kowalczewska
Wydział Prawa, Administracji i Ekonomii
Uniwersytet Wrocławski
Wystąpienie przedstawia kluczowe wyzwania prawne i etyczne związane z wojskowymi zastosowaniami sztucznej inteligencji, ze szczególnym uwzględnieniem autonomicznych systemów broni. Omawiam zależności między zasadami międzynarodowego prawa humanitarnego a działaniem modeli algorytmicznych, w tym błędy klasyfikacji, stronniczość danych oraz problemy odpowiedzialności. Celem jest pokazanie, jak pozornie techniczne decyzje obliczeniowe mogą prowadzić do skutków o fundamentalnym znaczeniu dla życia ludzi i dla prawa wojny.
Karolina Kremens
Wydział Prawa, Administracji i Ekonomii
Uniwersytet Wrocławski
Sztuczna inteligencja wkracza do wymiaru sprawiedliwości w sprawach karnych, obiecując wzmocnienie szybkości i efektywności postępowań karnych, ale jednocześnie wprowadza mechanizmy, które mogą podważyć zasadę równości stron, a także zasady obiektywizmu i bezstronności. W referacie w oparciu o konkretne case study zostanie omówione, jak technologie przetwarzania języka naturalnego pozwalają automatyzować i tłumaczyć teksty prawnicze i jakie niesie to za sobą konsekwencje, jak systemy biometryczne wykorzystują mechanizmy rozpoznawanie twarzy i innych cech fizycznych do identyfikacji osób i dlaczego przebiegać to może w sposób dyskryminujący oraz jak systemy predykcyjne mogą wspomóc w przewidywaniu zachowań w postępowaniu karnym. Analiza kazusów pokaże, że za obietnicą innowacji kryją się uprzedzenia, błędy i dyskryminacja – od niejawnych założeń w danych treningowych po wpływ na decyzje o zatrzymaniu, wyroku czy zwolnieniu warunkowym. Wystąpienie stawia pytanie, czy technologia może być sprzymierzeńcem sprawiedliwości, czy raczej jej cichym sabotażystą, oraz gdzie przebiega granica odpowiedzialności, gdy zawodzi algorytm.
Łukasz Łaczmański
Laboratorium Genomiki i Bioinformatyki,
Instytut Immunologii i Terapii Doświadczalnej im. L. Hirszfelda
PAN, Wrocław
Rozwój sztucznej inteligencji (AI) w ostatnich latach znacząco wpływa na medycynę również w obszarze immunoterapii nowotworów. Od systemów eksperckich po zaawansowane modele głębokiego uczenia, sztuczna inteligencja stała się kluczowym narzędziem w analizie danych klinicznych, molekularnych i obrazowych. Integracja informacji pochodzących z tzw. „jezior danych” obejmujących dane genomowe, transkryptomiczne, histopatologiczne czy obrazowe umożliwia opracowanie modeli predykcyjnych wspomagających decyzje terapeutyczne. W immunoonkologii sztuczna inteligencja wykorzystywana jest m.in. do identyfikacji neoantygenów, projektowania szczepionek personalizowanych oraz przewidywania odpowiedzi pacjentów na immunoterapię wykorzystującą inhibitory punktów kontrolnych układu odpornościowego. Modele uczenia maszynowego pozwalają integrować dane dotyczące występowania patogennych wariantów somatycznych, ekspresji genów, cechach histopatologicznych i parametrach klinicznych, osiągając wysoką skuteczność w klasyfikacji pacjentów i predykcji toksyczności terapii przeciwnowotworowych. Sztuczna inteligencja jest również elementem nowoczesnych systemów klinicznych (CDS, LIMS, EHR), wspomagających analizę wyników i personalizację leczenia. Zastosowania te wymagają jednak zgodności z regulacjami prawnymi UE dotyczącymi wyrobów medycznych (IVDR/MDR) oraz normami jakości (np. ISO 13485, IEC 62304).
Radosław Miernik
Wydział Matematyki i Informatyki
Uniwersytet Wrocławski
We propose a new General Game Playing (GGP) system called Regular Games (RG). The main goal of RG is to be both computationally efficient and convenient for game design. The system consists of several languages. The core component is a low-level language that defines the rules by a finite automaton. It is minimal with only a few mechanisms, which makes it easy for automatic processing (by agents, analysis, optimization, etc.). The language is universal for the class of all finite turn-based games with imperfect information. Higher-level languages are introduced for game design (by humans or Procedural Content Generation), which are eventually translated to a low-level language. RG generates faster forward models than the current state of the art, beating other GGP systems (Regular Boardgames, Ludii) in terms of efficiency. Additionally, RG’s ecosystem includes an editor with LSP, automaton visualization, benchmarking tools, and a debugger of game description transformations.
Tomasz Płonka,
Maja Ducka,
Aleksandra Furczyk,
Szymon Sułowski,
Grzegorz Ziólkowski
Wydział Nauk Historycznych i Pedagogicznych
Uniwersytet Wrocławski
Sztuka kultury magdaleńskiej (paleolit górny) z terenu dzisiejszej Polski obejmuje ryty wykonywane narzędziami krzemiennymi na przedmiotach z kości i poroża oraz figurki antropomorficzne. Motywy te mają głównie charakter geometryczny – są to różnorodne kombinacje linii prostych i krzywych, kresek oraz figur geometrycznych. Czasami tworzą one skomplikowane kompozycje, składające się z wielu elementów. W takich wypadkach podstawowym dla badaczy sztuki paleolitycznej problemem jest ustalenie, czy wzór taki powstał w wyniku działania jednej osoby i czy wyryto go jednym narzędziem.
Badania tego rodzaju wykonywano do tej pory za pomocą obserwacji mikroskopowych linii ornamentu oraz analizy obrazów 3D uzyskanych różnymi metodami. Nasz projekt zakłada zastosowanie algorytmów AI do badania liczby wykonawców oraz narzędzi użytych do wykonania dawnych rytów. W pierwszej fazie projektu obrazy tomograficzne ornamentów posłużą do zapoznania sieci z różnymi formami ornamentów magdaleńskich. W fazie drugiej grupa eksperymentatorów wykona różnego rodzaju motywy ornamentacyjne, posługując się rozmaitymi narzędziami krzemiennymi. Staną się one podstawą do treningu sieci w rozpoznawaniu rytów, wykonywanych przez odrębnych rytowników za pomocą różnych narzędzi. W końcowej fazie projektu wytrenowana sieć zostanie wykorzystana do analizy złożonego wzoru geometrycznego wyrytego na żebrze z Jaskini Maszyckiej. Wyniki tej pracy porównamy z naszymi wnioskami uzyskanymi na podstawie tradycyjnej analizy ornamentu. Badania odbywają się w ramach projektu The Magdalenian art in Poland: technology, new departures and social meaning (nr 2023/51/B/HS3/00261), finansowanego przez Narodowe Centrum Nauki (OPUS 26).
Michał Pocheć
Instytut Materiałów Zaawansowanych, Wydział Chemiczny
Politechnika Wrocławska
Od prostych regresji po zaawansowane modele językowe, dla wielu dziedzin życia "sztuczna inteligencja" stała się ważnym elementem krajobrazu drugiej i trzeciej dekady XXI wieku . Nie inaczej dzieje się z modelowaniem układów w skali molekularnej. Wcześniejsze metody symulacji dzieliły się na prostsze, ale bardzo szybkie (oparte o "klasyczne" oddziaływania atomów) oraz zdecydowanie wolniejsze i dokładniejsze, u podstaw których leżało rozwiązywanie przybliżeń równania Schroedingera. Machine learning (ML) jest szansą, żeby połączyć dokładność podobną do metod kwantowych z szybkością bliższą klasycznym polom siłowym. Niniejsza opowieść skupi się na problemach stających przed naukowcami próbującymi budować modele ML używane do symulacji molekularnych - od tworzenia spójnych i efektywnych zestawów danych do treningu, odpowiednie ich procesowanie, właściwe procedury trenowania aż po sposoby na udokładnianie przewidywań modeli. Pojawią się również dane dotyczące wydajności i dokładności symulacji nukleozydów RNA przeprowadzonych ML i ich porównanie z dotychczas stosowanymi metodami opartymi o Teorię Funkcjonału Gęstości (DFT).
Mikołaj Słupiński
Wydział Matematyki i Informatyki
Uniwersytet Wrocławski
Ukryty Model Markova o Hierarchicznym Priorze Dirichleta (HDP-HMM) stanowi naturalne bayesowskie nieparametryczne rozszerzenie klasycznego Ukrytego Modelu Markova. Pierwszym znaczącym usprawnieniem był lepki HDP-HMM (sticky HDP-HMM) w celu wzmocnienia prawdopodobieństwa samotrwania w modelu HDP-HMM. Następnie zaproponowano rozplątany lepki HDP-HMM (disentangled sticky HDP-HMM), aby rozdzielić siłę priorów dla trwania w tym samym stanie i przejść między stanami. Jednakże lepki HDP-HMM zakłada, że prawdopodobieństwo samotrwania nie zmienia się w czasie, co ogranicza jego ekspresywność. W niniejszej pracy rozwijamy wcześniejsze badania nad lepkim HDP-HMM i rozplątane lepkim HDP-HMM, opracowując bardziej ogólny model: rekurencyjny lepki HDP-HMM (RS-HDP-HMM). Opracowaliśmy nową strategię próbkowania Gibbsa umożliwiającą efektywne wnioskowanie w tym modelu. Pokazujemy, że RS-HDP-HMM przewyższa rozplątany lepki HDP-HMM, lepki HDP-HMM oraz HDP-HMM zarówno w segmentacji danych syntetycznych, jak i rzeczywistych.
Rafał Stottko
Instytut Materiałów Zaawansowanych, Wydział Chemiczny
Politechnika Wrocławska
Coraz częściej do odkrywania nowych materiałów wykorzystuje się metody uczenia maszynowego (ML) . Aktualnie można wyróżnić dwa typowe podejścia: (1) traktowanie cząsteczek chemicznych jako grafów i wykorzystywanie grafowych sieci neuronowych [1] oraz (2) stosowanie architektur służących do pracy z językiem naturalnym: wówczas wykorzystując kodowanie chemicznych struktur np. przy pomocy metody SMILES [2, 3]. RGBChem [4] to metoda oparta na reprezentacji informacji chemicznej w formie obrazów, które następnie służą do wytrenowania konwolucyjnej sieci neuronowej w celu przewidywania właściwości kwantowo-chemicznych. Poprzez modyfikację arbitralnej kolejności atomów obecnych w plikach .xyz, wykorzystywanych do generowania tych obrazów, wykazano, że możliwe jest zwiększenie rozmiaru początkowego zbioru treningowego poprzez tworzenie wielu unikalnych obrazów na podstawie jednej cząsteczki. Wyniki badań pokazują, że zaproponowane podejście prowadzi do statystycznie istotnej poprawy dokładności modelu, co wskazuje, że RGBChem stanowi skuteczną metodę wykorzystania uczenia maszynowego w sytuacjach, gdy dostępny zbiór danych jest zbyt mały, aby skutecznie zastosować metody ML.
[1] J. Gasteiger, S. Giri, J. T. Margraf, and S. Günnemann, Fast and uncertainty-aware directional message passing for non-equilibrium molecules, arXiv:2011.14115 [cs.LG], 2020.
[2] Ł. Maziarka, T. Danel, S. Mucha, K. Rataj, J. Tabor, and S. Jastrzębski, Molecule Attention Transformer, arXiv:2002.08264 [cs.LG], 2020.
[3] D. Weininger, SMILES, a chemical language and information system. 1. Introduction to methodology and encoding rules, J. Chem. Inf. Comput. Sci., 28(1):31–36, 1988.
[4] R. Stottko, R. Michalski, and B. M. Szyja, RGBChem: Image-like representation of chemical compounds for property prediction, J. Chem. Theory Comput., 21(10):5322–5333, 2025.
Marcin Walczyński
Zakład Translatoryki, Instytut Filologii Angielskiej
Uniwersytet Wrocławski
Sztuczna inteligencja wywróciła branżę tłumaczeniową do góry nogami. Jeszcze niedawno tłumacz był strażnikiem sensu, dziś coraz częściej staje się redaktorem tekstów generowanych przez algorytmy. W moim wystąpieniu podejmę próbę pokazania, w jaki sposób narzędzia oparte na dużych modelach językowych – takie jak ChatGPT – zmieniły sposób pracy, profil kompetencji i zawodową tożsamość tłumacza.
Aby lepiej zrozumieć tę rewolucję w branży usług tłumaczeniowych, przedstawię najpierw krótki przegląd wcześniejszych rozwiązań technologicznych: od pierwszych pamięci tłumaczeniowych (Trados, Wordfast) i korpusów równoległych, przez tłumaczenie statystyczne i neuronowe, aż po współczesne modele generatywne. W skrócie omówię ich ograniczenia oraz to, w jaki sposób przygotowały grunt pod obecną zmianę.
W głównej części wystąpienia skupię się na tym, jak sztuczna inteligencja zrewolucjonizowała pracę tłumacza. Przedstawię kilka przykładów z praktyki przekładu, które pokażą zarówno potencjał, jaki kryje się w nowych technologiach, jak i problemy wynikające z postępującej automatyzacji.
Celem mojej prezentacji jest pokazanie, że „koniec świata, jaki znał tłumacz” nie musi oznaczać katastrofy, lecz początek nowej ery, w której technologia i człowiek wspólnie negocjują znaczenia. Jestem przekonany, że tłumacz przyszłości to nie osoba, która odrzuca sztuczną inteligencję lub się jej obawia, ale człowiek, który potrafi ją oswoić i uczynić swoim sojusznikiem.
Filip Wójcik
Uniwersytet Ekonomiczny
Wystąpienie przedstawia zastosowanie heterogenicznych grafowych sieci neuronowych (ang. Heterogeneous Graph Neural Networks, HGNN) w wykrywaniu nielegalnych transakcji finansowych, obejmując wyniki trzech publikacji naukowych:
1. analizę realnego przypadku opartego na danych z wycieku BuzzFeed News (FinCEN Files),
2. analizę komparatywną na syntetycznych zbiorach danych
3. opracowanie implementacyjne omawianych rozwiązań.
Zaprezentowane zostaną kluczowe aspekty architektury głębokich sieci grafowych (w tym przewaga modeli GNN nad innymi w analizie złożonych struktur relacyjnych), oraz potencjał heterogenicznych grafów wynikający z możliwości modelowania różnorodnych typów wierzchołków i relacji.
Główna część prezentacji skupi się na dwóch studiach przypadku: wykrywaniu procederu prania pieniędzy (ang. Anti-Money Laundering, AML) na podstawie eksperymentów na syntetycznych danych oraz praktyczne śledzenie rzeczywistych transakcji finansowych z wykorzystaniem danych BuzzFeed News. W części technicznej przedstawione zostaną aspekty projektowania i trenowania grafowych sieci neuronowych, obejmujące techniki przygotowania danych, projektowanie architektury (w tym sieci izomorficzne, ang. Graph Isomorphism Networks, GIN), specyficzne metody trenowania oraz rekomendacje dotyczące rozwoju rozwiązań opartych na GNN w kontekście zastosowań finansowych.
Artur Yakimovich
Wydział Matematyki i Informatyki, Uniwersytet Wrocławski
oraz CASUS
Advanced microscopy techniques, including three-dimensional, super-resolution and quantitative phase microscopy, remain at the forefront of biomedical discovery. These methods enable researchers to visualise complex molecular processes and interactions at the level of single molecules or molecular complexes, capturing yet unseen information and pushing the boundaries of our understanding of health and disease. These innovations have been made possible, among others, through rapid progress in biophotonics, as well as computational processing and analysis of image-based data. However, advanced biophotonics comes at the cost of complex equipment, as well as difficult and lengthy data acquisition and necessitates highly-trained personnel. We demonstrate in several works that this hurdle can be addressed using generative and discriminative AI algorithms by formulating the conversion from conventional microscopy modalities like widefield, to advanced like super-resolution, as a set of inverse problems. We show that incorporating nuance of the data domain into the algorithm design, as well as leveraging synthetic data pre-training, leads to better performance in these algorithms. Among other examples, we demonstrate how Generative AI algorithms can be utilised for Virtual Staining of virus infection in cultured cells, allowing for quasi-label-free detection of infected cells.
Roland Zarzycki
Wydział Nauk Społecznych
Uniwersytet Wrocławski
Rozwój generatywnej sztucznej inteligencji otwiera nowe możliwości i wyzwania w socjologii, zwłaszcza w obszarze analizy relacji między strukturami narracyjnymi a uwarunkowaniami klasowymi. Modele generatywne, trenowane na zróżnicowanych danych mogą nie tylko odzwierciedlać istniejące struktury narracyjne, lecz także je współtworzyć, stając się nie-ludzkimi aktorami w społeczeństwie sieciowym, aktorami o określonym habitusie (Airoldi). W naszym badaniu porównujemy narracje tworzone przez ludzi i przez AI, oparte na identycznym scenariuszu rozmowy o przyszłości potomstwa oraz rodzicielskich oczekiwaniach i fantazjach. Analizujemy, czy i w jaki sposób modele AI reprodukują podziały klasowe, a także czy można przypisać im określony habitus. Odwołując się do koncepcji klas i kapitałów w ujęciu Bourdieu oraz jej współczesnych rozwinięć (Gdula, Sadura, Domański), pytamy, w czyim imieniu „mówi” AI, jakie interesy reprezentuje i w jaki sposób uczestniczy w reprodukcji klasowych struktur narracyjnych w polskim kontekście społecznym.
Monika Zaśko-Zielińska,
Jan Krzywdziński,
Kamil Wabnic
Wydział Filologiczy
Uniwersytet Wrocławski
Celem wystąpienia jest przedstawienie aktualnych potrzeb związanych z wykorzystywaniem systemów sztucznej inteligencji do automatycznego rozpoznawania i przetwarzania pisma ręcznego w kontekście budowania autentycznych zasobów językowych. Korpusy językowe oparte na łatwych do pozyskania danych drukowanych lub tekstach literackich czy urzędowych pomijają znaczącą część praktyk komunikacyjnych. W tym kontekście rozpoznawanie pisma ręcznego otwiera możliwość łatwego przetwarzania autentycznych danych językowych w formę, która może być dalej analizowana metodami lingwistycznymi. W wystąpieniu omówiono wyzwania stojące przed narzędziami do rozpoznawania tekstu pisanego - zróżnicowanie grafemów, rozróżnienia wynikające z idiostylu, nieczytelna postać materiału źródłowego, wpływ podłoża - oraz zaprezentowano przykłady zastosowania współczesnych modeli do rozpoznawania tekstu pisanego. Szczególny nacisk położono na potencjał integracji danych rękopiśmiennych z korpusami językowymi, co umożliwia bardziej reprezentatywne opisywanie praktyk językowych i poszerzanie zakresu badań nad wariantywnością, rejestrami oraz pragmatyką tekstów nienormatywnych. Zaproponowane podejście stanowi krok w kierunku pełniejszego udokumentowania różnorodności językowej oraz ułatwia dostęp do dotychczas trudno przetwarzalnych zasobów.