Polacy w AI Safety
Choć na mapie organizacji AI Safety dominują Dolina Krzemowa i Londyn, globalny układ sił staje się coraz bardziej zróżnicowany. W ostatnim czasie dynamicznie rozwijają się nowe ośrodki w wielu zakątkach świata. Polska nie stanowi tu wyjątku; co więcej, może poszczycić się naprawdę znaczącą liczbą ekspertów w tej dziedzinie. W poniższym artykule przybliżymy sylwetki Polaków oraz osób związanych z Polską, które aktywnie działają na rzecz redukcji ryzyk płynących z zaawansowanej sztucznej inteligencji.
Nie widzisz siebie na tej liście? Dołącz do naszej społeczności i daj o sobie znać! ;)
Jan Betley & Anna Sztyber-Betley
Jest to para jednych z najbardziej rozpoznawalnych naukowców w AI safety za sprawą ich prac nad zadziwiającymi zachowaniami LLMów. Jan i Anna skupiają się na badaniu zjawisk związanych z „rozumowaniem poza kontekstem" (out-of-context reasoning), a także na tym, jak LLMy uczą się ukrytych informacji ze swoich danych w trakcie treningu lub fine-tuningu. Dwie z ich publikacji o tzw. Emergent Misalignment i Subliminal Learning niedawno ukazały się w Nature – jednym z najbardziej prestiżowych czasopism naukowych na świecie.
Anna ukończyła doktorat z Automatyki i Robotyki i jest adiunktem na Wydziale Mechatroniki Politechniki Warszawskiej. Jan z kolei przez ponad dekadę pracował jako software developer, po czym zmienił ścieżkę zawodową na AI Safety dzięki programom takim jak ARENA i Astra. Wspólnie współpracują z grupą TruthfulAI Owaina Evansa.
Poczytaj więcej:
- Training large language models on narrow tasks can lead to broad misalignment
- Language models transmit behavioural traits through hidden signals in data
- Weird Generalization and Inductive Backdoors: New Ways to Corrupt LLMs
- Weird Generalization, Inductive Backdoors (and Subliminal Learning) – prezentacja Anny
Tomek Korbak
Tomek pracuje w OpenAI, gdzie skupia się na monitorowaniu LLMów pod kątem niepożądanych zachowań (misalignment) i kontrolą systemów AI. Jest autorem ponad 50 prac naukowych w zakresie AI i jednym z wiodących ekspertów w zakresie wykorzystania „ciągu rozumowania" (chain of thought) LLMów w celu wykrycia oznak misalignmentu (chain of thought monitoring). Poprzednio pracował w londyńskim UK AI Security Institute i Anthropic, badając aspekty takie jak filtrowanie danych treningowych i sykofancja. Tomek studiował kognitywistykę, filozofię i fizykę na Uniwersytecie Warszawskim, a następnie ukończył doktorat na Uniwersytecie Sussex w UK z zakresu „uczenia przez wzmacnianie ze sprzężeniem zwrotnym od człowieka" (RLHF – Reinforcement Learning from Human Feedback).
Poczytaj więcej:
- Chain of Thought Monitorability: A New and Fragile Opportunity for AI Safety
- Training Agents to Self-Report Misbehavior
- Async Control: Stress-testing Asynchronous Control Measures for LLM Agents
- Deep Ignorance: Filtering Pretraining Data Builds Tamper-Resistant Safeguards into Open-Weight LLMs
- Fundamental Limitations in Pointwise Defences of LLM Finetuning APIs
Krzysztof Bar
Krzysztof jest CEO London Initiative for Safe AI (LISA), londyńskiego hubu AI Safety goszczącego na co dzień ponad 100 osób i zrzeszającego ponad 1000 członków, co czyni go największym tego typu ośrodkiem w Europie – ustępującym skalą jedynie kalifornijskiemu Berkeley. LISA jest również siedzibą organizacji takich jak Apollo Research oraz domem dla programów szkoleniowych typu ARENA, LASR czy Pivotal.
Naukowa podróż Krzysztofa zaczęła się jednak od… komputerów kwantowych! Po studiach z matematyki i informatyki na Uniwersytecie Oksfordzkim, obronił na tej uczelni doktorat, specjalizując się w teoretycznych aspektach obliczeń kwantowych oraz teorii kategorii. W tym samym okresie pełnił również funkcję przewodniczącego Federacji Polskich Stowarzyszeń Studenckich w Wielkiej Brytanii.
Po doktoracie, Krzysztof przeszedł do sektora prywatnego, gdzie przez prawie dekadę pracował jako konsultant w firmie Oliver Wyman. Skupiał się tam na doradztwie w sprawach polityki publicznej i technologii, pracując m.in. przy wprowadzaniu Online Safety Act w UK. Krzysztof zmienił kierunek swojej ścieżki zawodowej na początku 2025 roku, kiedy to ukończył kurs AGI Strategy od BlueDot Impact, a następnie w ramach GovAI Fellowship pracował z Tobym Ordem nad analizą konsekwencji „skalowania inferencji" w modelach myślących (inference scaling).
Jakub Growiec
Jakub jest profesorem i kierownikiem Katedry Ekonomii Ilościowej w warszawskiej Szkole Głównej Handlowej. Jego zainteresowania badawcze obejmują transformacje ekonomiczne wywołane przez zaawansowaną sztuczną inteligencję oraz teorię długookresowego wzrostu gospodarczego i zmian technologicznych. Na ten właśnie temat napisał książkę „Accelerating Economic Growth" opublikowaną przez prestiżowe wydawnictwo Springer.
Poczytaj więcej:
- Accelerating Economic Growth: Lessons From 200,000 Years of Technological Progress and Human Development
- The Paradox of Doom: Acknowledging Extinction Risk Reduces the Incentive to Prevent It
- The Economics of p(doom): Scenarios of Existential Risk and Economic Growth in the Age of Transformative AI
- The Economics of Transformative AI: Hardware, Software, and p(doom) – prezentacja Jakuba
Sebastian Cygert
Sebastian kieruje Zakładem Bezpieczeństwa i Przejrzystości Sztucznej Inteligencji w polskim instytucie NASK, gdzie prowadzi badania nad wyjaśnialnością oraz interpretowalnością modeli AI. Jego praca obejmuje również audytowanie systemów sztucznej inteligencji oraz rozwój specjalistycznego oprogramowania wspierającego ich analizę.
Sebastian jest autorem ponad 50 prac naukowych w dziedzinie AI. Ukończył doktorat na Politechnice Gdańskiej, specjalizując się w widzeniu maszynowym.
Poczytaj więcej:
Kamil Deja
Kamil jest liderem zespołu Generative AI w warszawskim Instytucie Badawczym IDEAS oraz adiunktem na Politechnice Warszawskiej. Skupia się na zrozumieniu mechanizmów zachodzących w sieciach neuronowych za pomocą tzw. interpretowalności. Jego badania obejmują nie tylko LLMy, ale także modele dyfuzyjne i wizję komputerową. Jest autorem ponad 40 prac naukowych z zakresu sztucznej inteligencji.
Kamil ukończył studia i doktorat z informatyki na Politechnice Warszawskiej, a następnie współpracował z takimi instytucjami jak La Sapienza w Rzymie czy CERN w Genewie.
Bartosz Cywiński
Bartosz jest doktorantem w dziedzinie uczenia maszynowego na Politechnice Warszawskiej oraz bliskim współpracownikiem Kamila Deji. W ramach programu MATS współpracuje również z Neelem Nandą i Arthurem Conmy z Google DeepMind. W swojej pracy badawczej skupia się na „interpretowalności mechanistycznej" (mechanistic interpretability) oraz metodach wydobywania z modeli LLM wiedzy ukrytej, której nie ujawniają one bezpośrednio (tzw. eliciting latent knowledge).
Patryk Wielopolski
Patryk ukończył doktorat na Politechnice Wrocławskiej specjalizując się w probabilistycznym modelowaniu niepewności z użyciem „modeli przepływów normalizujących" (normalizing flows). Przez sześć lat pracował w firmie DataWalk, gdzie zarządzał zespołem inżynierów, zdobywając równocześnie doświadczenie w obszarze biznesu oraz zarządzania produktem.
To doświadczenie już wkrótce okazało się bardzo cenne – Patryk zdecydował się na kilka miesięcy przerwy w karierze, w trakcie których zaczął intensywnie poświęcać czas na AI Safety. Po ukończeniu kursów BlueDot Impact, bootcampu ML4Good i paru osobistych projektów, rozpoczął pracę jako Research Manager w MATS. Jest to prestiżowy program, który co pół roku pozwala ponad 100 talentom rozwijać badania nad AI Safety pod okiem ekspertów. Na co dzień Patryk nie tylko dba o najwyższy poziom merytoryczny ich prac, ale również zarządza operacyjnym i strukturalnym rozwojem tej organizacji.
Mateusz Dziemian
Mateusz pracuje w firmie Gray Swan specjalizującej się w obszarze AI Security oraz usługach z zakresu *red-teamingu*. Oprócz rozwijania infrastruktury inżynieryjnej firmy, Mateusz zajmuje się analizą ataków na modele LLM. Organizacja ta pozyskuje dane od dziesiątek tysięcy użytkowników za pośrednictwem publicznych wyzwań na dedykowanej platformie Gray Swan Arena. Dzięki temu zespół badawczy może analizować rzeczywiste przypadki i czerpać z kreatywności społeczności. Takie podejście gwarantuje znacznie szersze zbadanie spektrum zagrożeń w porównaniu z tradycyjnymi metodami ewaluacji AI.
Mateusz uczestniczył również w programie SPAR, gdzie badał zjawisko zmowy (*collusion*) między agentami AI nadzorowanymi przez inne modele językowe.
Julia Bazińska
Julia jest związana z firmą Lakera, gdzie odpowiada za projektowanie mechanizmów ochronnych dla przedsiębiorstw wdrażających rozwiązania oparte na agentach AI. Jest współautorką popularnej platformy Gandalf, która – podobnie jak Gray Swan Arena – pozwala użytkownikom testować modele językowe poprzez symulowane ataki, dostarczając tym samym danych do tworzenia coraz skuteczniejszych zabezpieczeń.
Swoją drogę naukową rozpoczęła od studiów informatycznych 1. stopnia na Uniwersytecie Warszawskim, gdzie pełniła funkcję przewodniczącej Koła Naukowego Uczenia Maszynowego. Tytuł magistra zdobyła na ETH w Zurychu. Jej doświadczenie obejmuje staże naukowe w firmach takich jak IBM, Google oraz Google DeepMind.
Filip Sondej
Filip w swoich badaniach skupia się na „oduczaniu" (unlearning), tzn. procesie usuwania z LLMów niepożądanych informacji, które mogłyby posłużyć do celów takich jak np. ataki biologiczne. W przeszłości pracował również nad kooperacją i zapobieganiem konfliktom między agentami AI w ramach programu MATS oraz we współpracy z londyńskim Centre on Long-Term Risk.
Filip ukończył informatykę na AGH w Krakowie, a następnie kognitywistykę na Uniwersytecie Jagiellońskim.
Poczytaj więcej:
Konrad Kozaczek
Konrad zajmuje się dość niszową (ale jakże ciekawą!) dziedziną AI Safety – badaniem konsekwencji potencjalnego istnienia tzw. „cyfrowych umysłów" w przyszłości, czyli świadomych bytów na bazie sztucznej inteligencji. W swojej pracy analizuje aspekty filozoficzne oraz moralne ich istnienia, a także rozważa, w jaki sposób obecne systemy prawne i polityczne mogłyby zostać rozszerzone, by objąć ich podmiotowość. Konrad interesuje się również zagrożeniami typu s-risks (zagrożeniami związanymi z ekstremalnym cierpieniem).
W ramach programu Future Impact Group, Konrad współpracuje z profesorem Jeffem Sebo z New York University oraz z doktorem Bradfordem Saad z Uniwersytetu Oksfordzkiego. Sam jest również mentorem w programie Impact First. Konrad ukończył studia magisterskie filozofii i AI na Northeastern University London, a jego praca dotyczyła badania replikujących się cyfrowych umysłów.
Michał Kubiak
Michał jest badaczem koncentrującym się na AI governance – specjalizuje się w europejskich regulacjach oraz zarządzaniu ryzykiem AI. Jego doświadczenie w obszarze polityki technologicznej obejmuje rolę specjalisty ds. polityki AI w European DIGITAL SME Alliance oraz w Observatorio de Riesgos Catastróficos Globales. Jest również współtwórcą platformy AI Risk Explorer, która na bieżąco monitoruje zagrożenia i incydenty związane z zaawansowaną sztuczną inteligencją. W swojej pracy badawczej analizuje rolę tzw. „mocarstw średnich" (middle powers) – bada, jakie działania mogą podjąć państwa spoza duopolu USA–Chiny, aby zachować konkurencyjność technologiczną i realnie wpływać na globalne standardy bezpieczeństwa AI.
Michał angażuje si�� także w edukację: jako facylitator prowadzi grupy w ramach kursów AI Safety takich jak BlueDot Impact, ML4Good oraz Electric Sheep.
Bartosz Kubiak
Bartosz specjalizuje się w polityce AI na poziomie europejskim – skupia się m.in. na wdrażaniu Aktu o AI (EU AI Act), regulacjach dotyczących infrastruktury AI (centra danych, suwerenna moc obliczeniowa, tzw. Gigafactories) oraz zarządzaniu zaawansowanymi systemami AI. Brał udział w programie ERA w Cambridge, gdzie pracował nad ramami odpowiedzialności prawnej dla autonomicznych agentów AI. Prowadzi kursy AGI Strategy, Frontier AI Governance oraz Technical AI Safety w BlueDot Impact.
Wcześniej Bartosz pełnił funkcję AI Policy Officer w brukselskim Centre for Future Generations, gdzie pracował nad partnerstwem publiczno-prywatnym AI Gigafactories o wartości 25 miliardów euro, a także doradzał Komisji Europejskiej w sprawach suwerennej mocy obliczeniowej i wdrażania AI Act. Doradzał również klientom z listy Fortune 100 w kwestiach regulacji EU (DSA, DMA, AI Act, GDPR).
Bartosz ukończył studia magisterskie o profilu Master of Public Policy w Blavatnik School of Government na Uniwersytecie Oksfordzkim.
Maciej Chrabąszcz
Maciej jest badaczem w instytucie NASK oraz doktorantem na Politechnice Warszawskiej. W swoich badaniach koncentruje się na wykorzystaniu wewnętrznych reprezentacji modeli do wykrywania i zapobiegania niebezpiecznym zachowaniom. Jest autorem ponad 10 prac naukowych ze sztucznej inteligencji.
Maciej studiował matematykę i analizę danych na Politechnice Warszawskiej, gdzie był również przewodniczącym Koła Naukowego Sztucznej Inteligencji Golem.
Jan Dubiński
Podobnie do Macieja, Jan bada AI Safety w NASK i jest doktorantem na Politechnice Warszawskiej, gdzie ukończył wcześniej informatykę. Interesuje się atakami antagonistycznymi na systemy AI, znakami wodnymi dla outputów (watermarking), atakami wnioskowania o przynależności danych (membership inference attacks) i atakami kradnącymi wagi modelu. Obecnie współpracuje z TruthfulAI Owaina Evansa w ramach programu Astra Fellowship. Jest również członkiem Kolaboracji ATLAS w CERN.
Mateusz Piotrowski
Mateusz interesuje się interpretowalnością mechaniczną modeli (mechanistic interpretability), czyli zrozumieniem działania sieci neuronowych na poziomie neuronów i ich połączeń. Jest współtwórcą biblioteki open-source do generowania grafów atrybucji (attribution graphs), bazującej na metodzie śledzenia tzw. obwodów obliczeniowych (circuit tracing). Narzędzia te pozwalają badaczom wizualizować procesy decyzyjne modeli LLM oraz śledzić przepływ informacji przez sieć neuronową. Badania te zostały zapoczątkowane przez firmę Anthropic – jednego z liderów sektora AI – z którą Mateusz współpracował w ramach programu Anthropic AI Safety Fellowship.
Mateusz pracował również nad mechaniką obliczeniową (computational mechanics) w kontekście teorii informacji i procesów stochastycznych. Ta stosunkowo niszowa dziedzina technicznego AI Safety bada, jak transformery uczą się określonych struktur geometrycznych w swoich reprezentacjach wewnętrznych. Mateusz w swojej pracy wykazał, że pośrednie reprezentacje w transformerach mają geometrię fraktalną, a jej strukturę mo��na przewidzieć analizując proces generujący dane, na których został wytrenowany ten transformer.
Reworr
Reworr pracuje w organizacji badawczej non-profit Palisade Research, gdzie zajmuje się analizą niebezpiecznych zdolności agentów AI w domenie cyberbezpieczeństwa. Posiada bogate doświadczenie w obszarach AI oraz IT Security, zdobyte m.in. w ramach red-teamingu, testów penetracyjnych oraz audytów bezpieczeństwa aplikacji webowych.
Zuzanna Matuszewska
Zuzanna pracuje jako badaczka w Measuring AI Progress — organizacji non-profit projektującej ewaluacje agentowych zdolności LLMów istotnych z punktu widzenia ryzyk biologicznych. Do tej roli trafiła bezpośrednio po ukończeniu pierwszej edycji ERA AIxBio Fellowship na początku 2026 roku. Wcześniej ukończyła kierunek lekarski na Warszawskim Uniwersytecie Medycznym i równolegle studiowała matematykę na Uniwersytecie Warszawskim. Wolontaryjnie pracuje również jako badaczka w Alliance to Feed the Earth in Disasters (ALLFED). Interesuje się dobrostanem zwierząt i modeli AI.
Taras Kutsyk
Taras jest doktorantem zajmującym się „interpretowalnością mechanistyczną" (mechanistic interpretability) w GMUM (Grupa Uczenia Maszynowego) na Uniwersytecie Jagiellońskim w Krakowie. Wcześniej był stypendystą MATS w grupie Neela Nandy z Google DeepMind, a także uczestniczył w programie AI Safety Camp i ukończył kurs AI Safety Fundamentals od BlueDot Impact. Jego badania koncentrują się na zastosowaniu technik interpretowalności do problemów bezpieczeństwa AI, w tym na badaniu „generalizacji osobowości" (persona generalisation) w dużych modelach językowych. Taras współpracuje również z Janem Betley w zakresie badania samoświadomości w LLMach.
Taras ukończył matematykę stosowaną i informatykę na Politechnice Lwowskiej, a następnie matematykę inżynieryjną na Uniwersytecie w L'Aquila we Włoszech.
Jakub Kryś
Na koniec przedstawimy sylwetkę autora tego artykułu. Jakub ukończył doktorat z fizyki teoretycznej na Uniwersytecie Durham w Wielkiej Brytanii, po czym zmienił ścieżkę kariery na AI Safety dzięki kursom takim jak Technical AI Safety od BlueDot Impact. Pracował nad atakami antagonistycznymi i jailbreakami, skupiając się na modelach językowo-wizyjnych (VLM – Vision Language Models). Posiada również doświadczenie w badaniach nad wykorzystaniem mocy obliczeniowej na rzecz AI Safety (compute governance), a także w opracowywaniu rozwiązań technicznych wspierających program badawczy AI Verification. Obecnie pracuje w organizacji non-profit SaferAI, gdzie zajmuje się modelowaniem cyberataków przeprowadzanych za pomocą LLMów.
Jakub interesuje się zagrożeniami s-risks, kooperacją i konfliktem w wieloagentowych systemach AI oraz wykorzystaniem najnowszych LLMów w badaniach matematycznych i fizycznych. Jest również mentorem w programie SPAR, gdzie nadzoruje projekty badawcze na temat modelowania ryzyka (w domenach cyber i „Loss of Control"), a także na temat prognozowania za pomocą LLMów (LLM forecasting).
Jeśli udało Ci się dotrwać do końca tego artykułu, zapewne jesteś osobą, którą zainteresuje dołączenie do naszej społeczności :) W ramach AI Safety Polska organizujemy regularne webinary, grupę czytelniczą oraz spotkania na żywo, a także oferujemy przestrzeń do merytorycznych dyskusji o przeróżnych aspektach AI Safety.
Zapraszamy do śledzenia naszych wydarzeń na kalendarzu Luma i dołączenia do Slacka!
Dołącz do dyskusji
