Ogólnopolska Matematyczna Konferencja Studentów - OMatKo!!! XII

Europe/Warsaw
10A (D20)

10A

D20

Janiszewskiego 8, 50-372 Wrocław
Maria Nowacka (Politechnika Wrocławska), Nela Potok
    • 13:30
      Rejestracja
    • 14:30
      Rozpoczęcie konferencji
    • 1
      Wykład otwierajacy
    • 16:00
      Przerwa kawowa
    • 16:20
      Prezentacja sponsora - UBS
    • Sesja matematyki stosowanej
      • 2
        Albo szybko, albo dokładnie. Opowieść o algorytmach aproksymacyjnych

        W matematyce oraz informatyce bada się różne rodzaje problemów optymalizacyjnych. Dla wielu z nich udało się opracować efektywne algorytmy, które zawsze pozwalają znaleźć optymalne rozwiązanie. Są jednak i takie, dla których nie znamy algorytmów o zadowalającym czasie działania. Co więcej, mamy poważne powody, żeby przypuszczać, że dla niektórych problemów takie algorytmy w ogóle nie istnieją. Na szczęście okazuje się, że nawet w przypadku bardzo trudnych obliczeniowo problemów nie wszystko jest stracone. Mogą bowiem istnieć dla nich szybkie algorytmy, które zawsze dają rozwiązanie w pewnym określonym sensie bliskie optymalnemu. Są to tak zwane algorytmy aproksymacyjne. W moim referacie chciałbym opowiedzieć o tej fascynującej dziedzinie algorytmiki. Przyjrzymy kilku klasycznym problemom optymalizacji dyskretnej, takim jak problem plecakowy, problem komiwojażera czy problem pokrycia wierzchołkowego. Zastanowimy się, dla których z nich istnieją algorytmy aproksymacyjne, przeanalizujemy ich działanie oraz udowodnimy ich poprawność. Przekonamy się, że są problemy, które można aproksymować z dowolną dokładnością, oraz takie, dla których prawdopodobnie wcale nie jest to możliwe. Przy okazji zetkniemy się z tym, co algorytmicy lubią najbardziej – analizą algorytmów, teorią grafów i złożonością obliczeniową.

        Mówca: Jakub Sokołowski (Politechnika Wrocławska)
    • Sesja matematyki teoretycznej
      • 3
        Spotykanie przez sprzęganie — dynamika Glaubera w teorii łańcuchów Markowa

        Spotykanie przez sprzęganie — dynamika Glaubera w teorii łańcuchów Markowa

        Wiele zjawisk, które obserwujemy w naturze i technologii — od ruchu cząstek po algorytmy komputerowe — ma w sobie element losowości. Jednym z najważniejszych narzędzi do ich opisu są łańcuchy Markowa, czyli modele, w których przyszłość zależy tylko od obecnego stanu, a nie od całej historii. W referacie opowiem o metodzie sprzęgania (couplingu) — eleganckim sposobie badania, jak takie losowe systemy z czasem „dochodziły” do równowagi.

        Metoda ta pozwala badać zbieżność do rozkładu stacjonarnego, kontrolować czas mieszania oraz konstruować losowe próbki z rozkładu stacjonarnego bez potrzeby znajomości samego czasu zbieżności. Sprzęganie znajduje zastosowania nie tylko w czystej teorii prawdopodobieństwa, lecz także w fizyce statystycznej, teorii sieci i algorytmach symulacyjnych.

        W pierwszej części przypomniane zostaną podstawowe pojęcia potrzebne do zdefiniowania sprzęgania dwóch (a później większej liczby) łańcuchów Markowa. Następnie omówione zostaną intuicje i zastosowania couplingu w prostych modelach.

        W drugiej części przejdziemy do bardziej złożonej konstrukcji — Coupling from the Past (CFTP), techniki pozwalającej wygenerować próbkę z rozkładu stacjonarnego łańcucha Markowa, uruchamiając wiele sprzężonych trajektorii z przeszłości aż do momentu ich koalescencji. W tym kontekście zostanie szczegółowo przedstawiony model hardcore (dynamika Glaubera) — układ cząstek na grafie z lokalnym ograniczeniem zajętości.

        Mówca: Monika Lena Brattig (Uniwersytet Wrocławski)
    • 17:10
      Przerwa kawowa
    • Sesja matematyki stosowanej: Blok matematyki stosowanej
      • 4
        Jak krzywe eliptyczne chronią twoje dane?

        Kryptografia krzywych eliptycznych (ECC) stanowi jeden z filarów nowoczesnych systemów zabezpieczających dane. Jej kluczowa rola w dzisiejszej informatyce wynika ze zdolności do zapewnienia tego samego poziomu bezpieczeństwa co w przypadku klasycznych systemów (np. opartych na problemie faktoryzacji) przy użyciu znacznie krótszych, a tym samym wydajniejszych obliczeniowo kluczy. Jest ona niezbędnym narzędziem w protokołach bezpiecznej komunikacji (np. TLS), podpisach cyfrowych czy kryptowalutach.

        Celem referatu jest omówienie –- od strony matematycznej -– definicji i podstawowych własności krzywych eliptycznych, przybliżenie pojęć związanych z bezpieczeństwem protokołów kryptograficznych bazujących na tych krzywych, a wreszcie przedstawienie działania i zastosowań protokołu wymiany kluczy ECDH (Elliptic Curve Diffie-Hellman).

        W części pierwszej zaprezentujemy klasyczny protokół Diffiego-Hellmana, wyjaśnimy, na czym polega problem logarytmu dyskretnego, oraz wskażemy motywację do poszukiwania rozwiązań wydajniejszych niż ten protokół. Następnie zajmiemy się podstawami matematycznymi -- od definicji krzywej eliptycznej nad ciałem liczb rzeczywistych po kluczową dla kryptografii grupę punktów na krzywej eliptycznej nad ciałem skończonym. Zaprezentujemy również implementację edukacyjną, która zwizualizuje dodawanie punktów. W dalszej części referatu omówimy problem logarytmu dyskretnego na krzywych eliptycznych, sklasyfikujemy ataki na systemy kryptograficzne oparte na ECC i sformułujemy kryteria bezpieczeństwa dla takich systemów. Przedstawimy ponadto działanie protokołu ECDH i zaprezentujemy pewne standardowe krzywe stosowane powszechnie do ochrony danych. Na koniec zademonstrujemy implementację realizującą protokół ECDH przy użyciu nowoczesnej biblioteki cryptography. Dzięki temu będziemy mogli zestawić teorię z jej praktycznymi zastosowaniami.

        Mówca: Jan Kocierz (Politechnika Krakowska)
      • 5
        Model wyborów, sondaży i podzielonego społeczeństwa

        W Polsce, jak i w wielu innych demokracjach świata, obserwujemy wybory binarne, których wyniki kształtują się około 50% na 50%. Opowiem o modelu zainspirowanym modelem Isinga, który próbuje wyjaśnić to zjawisko. W owym modelu rozważamy sieć wyborców, którzy mogą przyjąć jedną z dwóch opinii. Wyborcy preferują opinię zgodną z sąsiadami i przeciwną do faworyta sondażów. Prowadzi to do stanu podzielonego społeczeństwa, który wydaje się zgodny z dynamiką sondaży i wynikami wyborów ze świata rzeczywistego - wyborcy są ułożeni w dwa przeciwnie głosujące obozy podobnej wielkości, z granicą ustaloną w miejscu z najmniejszą liczbą połączeń.

        Mówca: Jarowit Śledziński (Universtity of Warsaw, Faculty of Mathematics, Informatics and Mechanics)
    • Sesja matematyki teoretycznej: Blok matematyki teoretycznej
      • 6
        Liczby Fibonacciego które są potęgami.

        Celem wykładu jest znalezienie wszystkich liczb Fibonacciego, które są potęgami liczb całkowitych. By uzyskać wynik, zostaną wykorzystane narzędzia z teorii liniowych form logarytmów Bakera, mające swoje źródła w rozwiązaniu siódmego problemu Hilberta.
        W prelekcji zostaną najpierw przedstawione podstawy teorii liniowych form logarytmów Bakera oraz kluczowe oszacowania, pozwalające nam ograniczyć zbiór rozwiązań różnych równań diofantycznych do zbioru skończonego. Następnie będzie omawiane zagadnienie rozwiązań równań Thuego, czyli równań postaci F(x,y)=m, gdzie F jest wielomianem nierozkładalnym stopnia co najmniej 3 o współczynnikach całkowitych, zaś m jest liczbą całkowitą. Po zapoznaniu słuchaczy z wyżej wymienionymi metodami, zostanie przedstawiony dowód, że jedyne liczby Fibonacciego, które są potęgami (co najmniej drugimi) liczb całkowitych, to F_0=0, F_1=1, F_2=1, F_6=8 oraz F_12=144.

        Mówca: Anna Prucnal (Uniwersytet Jagielloński)
      • 7
        Od Lindelöfa do Mengera – kombinatoryczne spojrzenie na własności pokryciowe

        Prezentacja poświęcona jest zagadnieniu kombinatorycznych charakteryzacji własności pokryciowych przestrzeni topologicznych, które stanowią ważny obszar badań w topologii ogólnej. Celem wystąpienia jest pokazanie, w jaki sposób własności topologiczne — takie jak np. własność Mengera czy Hurewicza— mogą być opisane przy użyciu narzędzi i idei pochodzących z kombinatoryki oraz teorii mnogości. Przedstawione zostaną podstawowe pojęcia dotyczące pokryć otwartych i własności pokryciowych oraz diagram przedstawiający powiązania pomiędzy nimi. W prezentacji pojawią się również krytyczne liczby kardynalne dla danych własności oraz ich definicje.

        Mówca: Aleksandra Łukasik
    • 18:40
      Zakończenie dnia
    • 09:30
      Rejestracja uczestników
    • Sesja matematyki stosowanej: Blok matematyki stosowanej
      • 8
        Analiza zjawiska wędrówki chaotycznej za pomocą entropii i uczenia maszynowego

        Wędrówka chaotyczna (chaotic itinerancy) to rodzaj zachowania obserwowanego w układach dynamicznych na pograniczu chaosu i uporządkowania. Zjawisko to polega na tym, że trajektoria układu przez pewien czas przebywa w stanie uporządkowanym, po czym przechodzi do stanu chaotycznego. Po jakimś czasie trajektoria znowu wraca do - być może innego - stanu uporządkowanego i ten proces jest kontynuowany. Takie stany uporządkowane nazywane są ruinami atraktorów, ponieważ wyglądają tak, jakby powstały z atraktorów, które utraciły stabilność wskutek bifurkacji. Trajektoria układu wędruje między ruinami atraktorów w sposób nieprzewidywalny. Zjawisko wędrówki chaotycznej wykorzystuje się m.in. do modelowania działania mózgu i skomplikowanych układów biologicznych oraz do symulowania spontaniczności w sztucznej inteligencji.

        Podczas referatu przedstawię opracowaną przeze mnie metodę wykrywania zjawiska wędrówki chaotycznej w oparciu o uczenie maszynowe i statystyczne miary niepewności. Zademonstruję działanie tej metody na przykładzie układu sprzężonych chaotycznych odwzorowań jednowymiarowych, który jest sztandarowym przykładem pokazywanym w literaturze. Wykorzystanie pojęcia entropii pozwala znaleźć parametry układu, przy których można zaobserwować wędrówkę chaotyczną. Natomiast użycie algorytmu grupowania dla punktów danej trajektorii w przestrzeni fazowej pozwala wykryć gęste obszary jako potencjalne przybliżenia ruin atraktorów. Dla tak znalezionych skupisk można analizować przejścia między nimi i przeprowadzić statystyczne testy losowości w celu potwierdzenia nieprzewidywalności dynamiki, która jest kluczową cechą tego zjawiska.

        Mówca: Nikodem Mierski (Politechnika Gdańska)
      • 9
        Między wierszami - jak model LDA ujawnia prawdziwą tematykę w erze nadmiaru tekstu

        W dobie nadmiaru informacji i łatwości publikacji treści efektywne określenie
        głównej tematyki dużych zbiorów tekstowych staje się wyzwaniem. W takim
        przypadku tradycyjna analiza jest czasochłonna i nieefektywna. Odpowiedzią na
        to wyzwanie są nowoczesne metody analizy tekstu, w tym model ukrytej alokacji
        Dirichleta (LDA – Latent Dirichlet Allocation), który pozwala na identyfikację
        ukrytych tematów na podstawie rozkładów prawdopodobieństwa współwystę-
        powania słów. Dzięki wykorzystaniu języków programowania takich jak Python
        czy R możliwe jest zautomatyzowanie tego procesu i przeprowadzenie analizy
        nawet na bardzo dużych zbiorach danych. W referacie przedstawiono ogólne
        założenia modelu LDA, jego implementację oraz przykładowe wyniki analizy
        tematycznej przeprowadzonej na wybranym korpusie tekstów. Uzyskane wyniki potwierdzają przydatność tego podejścia w eksploracji danych tekstowych
        i identyfikacji dominujących tematów badawczych.

        Mówca: Wiktor Waksmundzki (Politechnika Krakowska im. Tadeusza Kościuszki, Wydział Informatyki i Matematyki, SKN Matematyków)
    • Sesja matematyki teoretycznej: Blok matematyki teoretycznej
      • 10
        Zjawisko Rungego, czyli o tym jak matematyka wygrywa z intuicją.

        Zjawisko Rungego stanowi jedno z najbardziej intrygujących przykładów sytuacji, w której matematyczna rzeczywistość przeczy naszej intuicji. Dotyczy ono interpolacji wielomianowej - procesu, który powinien przybliżać dowolną funkcję wielomianem coraz lepiej wraz ze wzrostem liczby punktów (węzłów). Jednak wbrew oczekiwaniom, dla pewnych funkcji i rozmieszczeń punktów, przybliżenie wielomianowe zaczyna się dramatycznie pogarszać. To zjawisko, po raz pierwszy opisane przez Carla Rungego pod koniec XIX wieku, do dziś stanowi istotny punkt odniesienia w analizie numerycznej.
        W wystąpieniu przybliżę istotę wielomianów Czebyszewa, jako rozwiązanie tego problemu, przestawiając je zarówno teoretyczne i wizualnie. Celem prezentacji jest pokazanie, że matematyka nie tylko opisuje świat, ale potrafi również skutecznie korygować nasze błędne wyobrażenia o tym, jak „powinno być”.

        Mówca: Klaudia Jaszczerska
      • 11
        Cudze chwalicie swego nie znacie- speedrun problemów z księgi Szkockiej

        Wiele z nas kojarzy księgę Szkocką w której lwowscy matematycy pisali problemy wymagające rozwiązania. Jednak ile z tych problemów jest nam faktycznie znane? Pokażę rozwiązania kilku z do tej pory rozwiązanych problemów i być może zainteresuję uczestników tymi nierozwiązanymi, których wciąż wiele można w księdze znaleźć.

        Mówca: Wacek Chromik
    • 11:00
      Przerwa kawowa
    • Sesja Plakatowa
    • 11:50
      Prezentacja sponsora - BNY
    • Sesja matematyki stosowanej
      • 12
        Algorytmiczna analiza układów dynamicznych przy skończonej rozdzielczości.

        Analiza nieliniowych układów dynamicznych jest często trudna, szczególnie dla wysokowymiarowych układów oraz takich, które są chaotyczne.
        W referacie przedstawiamy metodę analizy dynamiki układu zadanego przez ciągłe odwzorowanie $f\colon X\ni x_t\mapsto x_{t+1} \in X$ polegającą na dyskretyzacji przestrzeni fazowej na skończony zbiór $n$-kostek, $\mathcal{X}$. Dzięki takiemu podziałowi możemy skonstruować wielowartościowe odwzorowanie $\mathcal{F}\colon \mathcal{X}\multimap \mathcal{X}$, które interpretujemy jako ważony graf skierowany, opisujący odwzorowanie kostek w siebie nawzajem. Taka reprezentacja układu pozwala na użycie efektywnych algorytmów grafowych np. w celu poszukiwania punktów stałych, orbit okresowych lub określenia czy układ jest topologicznie tranzytywny przy ustalonej skończonej rozdzielczości [1,2]. Dla układów, w których występuje zjawisko wędrówki chaotycznej [3], gdzie trajektorie przejawiają złożoną dynamikę łączącą chaos z momentami uporządkowanego ruchu w pobliżu quasi-atraktorów, proponujemy metodę filtracji grafu $\mathcal{F_\tau}$ pozwalającą na odseparowanie interesujących nas obszarów od chaotycznych przejść. Nadawanie wag krawędziom grafu $\mathcal{F_\tau}$ pozwala także na wykorzystanie metod statystycznych, takich jak wyznaczenie rozkładu stacjonarnego powstałego łańcucha Markowa oraz śledzenie przejść pomiędzy quasi-atraktorami w sposób ilościowy. Pokażemy wyniki zastosowania powyższych metod do analizy dwóch typów układów dynamicznych: klasycznego odwzorowania Henona, w którym obserwuje się dynamikę chaotyczną, oraz układu sprzężonych odwzorowań jednowymiarowych, w którym zaobserwować można zjawisko wędrówki chaotycznej.

        [1] Arai, Z., Kalies, W., Kokubu, H., Mischaikow, K., Oka, H. & Pilarczyk, P. (2009). A Database Schema for the Analysis of Global Dynamics of Multiparameter Systems. SIAM Journal on Applied Dynamical Systems, 8(3), 757–789.

        [2] Luzzatto, S. & Pilarczyk, P. (2011). Finite resolution dynamics. Foundations of Computational Mathematics, 11(2), 211–239.

        [3] Kaneko, K. & Tsuda, I. (2003). Chaotic itinerancy. Chaos, 13(3), 926–936.

        Mówca: Wojciech Jaworek (Politechnika Gdańska)
    • Sesja matematyki teoretycznej
      • 13
        Porządek w chaosie. O liczbach pierwszych

        Dzielące się przez jeden i samą siebie liczby skrywają w sobie wiele tajemnic, które od stuleci fascynują matematyków. Choć ich rozmieszczenie wydaje się chaotyczne, w tym pozornym nieładzie można dostrzec zaskakujące wzory i regularności.

        W referacie Porządek w chaosie spróbujemy uchwycić te ukryte zależności. Zaczniemy od słynnego wzoru Eulera $n^2 + n + 41$, który przez długi czas generuje wyłącznie liczby pierwsze — aż do momentu, gdy porządek ustępuje chaosowi. Następnie przejdziemy do ich geometrycznego rozmieszczenia na spirali Ulama, gdzie symetria i przypadek spotykają się w jednym obrazie.

        Poznamy także podstawowe twierdzenia Bertranda-Czebyszewa, Dirichleta i Gaussa, które opisują gęstość i rozkład liczb pierwszych, pozwalając spojrzeć na ich strukturę w nowy sposób.

        Wszystko to prowadzi do pytania, które pozostaje otwarte: czy wśród nieskończonego zbioru liczb pierwszych naprawdę panuje chaos, czy raczej ukryty porządek, który dopiero zaczynamy rozumieć?

        Mówca: Magdalena Kwiatkowska
      • 14
        Gry karciane set - problem cap set w klasycznym secie

        W referacie przedstawię zasady gry set i podam jej matematyczną interpretację. Pokażę kilka prostych faktów na jej temat i zajmę się problemem cap set (problem szukania zbioru punktów w którym nie ma punktów tworzących prostą w Z_3^4) w wymiarach 2, 3 i 4. Krótko omówię problem cap set w wyższych wymiarach. Powiem czym jest gra "typu" set i opowiem o systemach trójkowych Steinera i rzutowym secie.

        Mówca: Dominik Gąska (Uniwersytet Warszawski)
    • 13:30
      Przerwa obiadowa
    • Sesja matematyki stosowanej
      • 15
        Oddajcie mi moje pieniądze. O zastosowaniu teorii grafów w problemie przepływu o minimalnym koszcie.

        Problem optymalnego rozliczania długów w grupie uczestników można ująć jako zadanie minimalizacji liczby lub kosztu transferów w sieci długów. W referacie przedstawię jego model w języku teorii grafów oraz związki z klasycznymi zagadnieniami optymalizacyjnymi, takimi jak przepływ o minimalnym koszcie (minimum-cost flow) i algorytm anulowania cykli (cycle cancelling). Omówię także podejście zachłanne oraz porównam skuteczność poszczególnych metod, pokazując, w jaki sposób narzędzia teorii grafów pozwalają efektywnie rozwiązywać praktyczne problemy rozliczeń.

        Mówca: Paweł Grott (Politechnika Gdańska)
      • 16
        Jak zmodelować cały mecz w piłce nożnej: od danych do symulacji

        W prezentacji przedstawiono system, który stanowi kompletny pipeline predykcji meczów piłki nożnej na podstawie danych pochodzących z czterech najwyższych lig piłkarskich w Anglii - od surowych danych po symulację szczegółowych statystyk spotkania. Punkt wyjścia stanowi integracja wielu źródeł: historii meczów, składów, wartości rynkowych oraz tabel ligowych, przekształcanych w spójny panel meczowy z rozbudowanym zestawem cech przedmeczowych. Na tej bazie zbudowany jest rozszerzony system rankingowy Elo, w którym ratingi drużyn aktualizowane są po każdym meczu z uwzględnieniem przebiegu spotkania i przewagi własnego boiska, tak aby dynamicznie odzwierciedlać realną siłę zespołów. Równolegle estymowana jest forma ofensywna i defensywna, liczona względem ligowego tła z wykorzystaniem xG oraz ważonej historii, z większym naciskiem na ostatnie spotkania. Kolejna warstwa to gwiazdkowy system oceny ataku, obrony i ogólnej jakości drużyn. Całość domyka blok TDPR (Time-Dependent Poisson Regression), czyli modele Poissona i regresje, które generują szczegółowe statystyki meczu. Symulacja ma charakter probabilistyczny: losujemy przebieg całego meczu, więc ten sam zestaw wejść może prowadzić do różnych rezultatów. Projekt prezentuje ogólną ramę, którą można rozwijać o dodatkowe źródła i warianty modeli.

        Mówca: Bartłomiej Węgrzyn (Politechnika Krakowska)
      • 17
        Nieoczekiwane skutki stosowania algorytmów gradientowych

        Nieoczekiwane skutki stosowania algorytmów gradientowych

        Prezentacja omawia ukrytą regularyzację – zjawisko, w którym algorytmy optymalizacyjne, bez jawnego członu regularyzującego, preferują pewne rozwiązania, które lepiej generalizują.
        Te zjawiska zostaną wyprowadzone za pomocą analizy wstecznej błędu.

        • W Gradient Descent, dyskretyzacja kroku (skończony rozmiar $\eta$) jest równoważna dodaniu członu karzącego duże normy gradientu. Algorytm unika stromych regionów, co wyjaśnia lepszą generalizację przy większych krokach.
        • W Stochastic Gradient Descent, pojawia się dodatkowy człon regularyzujący, proporcjonalny do wariancji gradientów partii. SGD wybiera minima, w których dane są stabilne, co sprzyja lepszej generalizacji.

        Uwaga!!!

        Wykład nie zakłada znajomości uczenia maszynowego.


        Słowa klucz:

        • Uczenie Maszynowe
        • Sieci Neuronowe
        • Optymalizacja
        • Statystyka
        • Metody Numeryczne
        • Równania Rózniczkowe
        Mówca: Dominik Jur (Politechnika Wrocławska)
    • Sesja matematyki teoretycznej
      • 18
        O przestrzeniach nakrywających

        Zbiór $\widetilde{X}$ nazywamy przestrzenią nakrywającą przestrzeni $X$, jeżeli istnieje takie odwzorowanie $p\colon \widetilde{X}\to X$, dla którego spełniony jest następujący warunek: dla każdego $x\in X$ istnieje otoczenie otwarte $U\in X$ takie, że $p^{-1}(U)$ stanowi rozłączną sumę zbiorów otwartych w $\widetilde{X}$, z których każdy jest homeomorficzny z $U$.

        Podczas referatu podamy przykłady różnych przestrzeni nakrywających dla okręgu, bukietu okręgów czy genusów z $n$ dziurami i omówimy ich związek z grupą podstawową tych obiektów. Omówimy także, kiedy dana przestrzeń posiada nakrycie uniwersalne, czyli przestrzeń nakrywającą wszystkie spójne $\widetilde{X}$ dla przestrzeni $X$.

        Mówca: Dorota Chańko (Politechnika Gdańska)
      • 19
        Algorytm Buchbergera, czyli geometria algebraiczna na palcach

        Podstawowym obiektem badań w geometrii algebraicznej są rozmaitości algebraiczne, czyli zbiory układów równań wielomianowych. W przeciwieństwie do układów liniowych, wielomianowe układy równań wielu zmiennych nie poddają się prostym metodom eliminacji ani rachunkowi macierzowemu. Z pomocą przychodzą bazy Gröbnera, które przekształcają zbiór generujący ideał wielomianów w postać kanoniczną, z której eliminacja zmiennych, rozwiązywanie układów oraz badanie własności strukturalnych staje się przejrzyste.

        W refereacie, poprzez konkretne przykłady, przedstawimy algorytm dzielenia z resztą w $k[x_1, \dots , x_n]$ oraz algorytm Buchbergera, który w konstruktywny sposób pozwala nam wyznaczyć bazę Gröbnera.

        Mówca: Bartosz Bogulas (Uniwersytet Adama Mickiewicza)
      • 20
        Sterty, czyli grupy, w których nie został wybrany element neutralny

        Sterta jest pewnym uogólnieniem pojęcia grupy - zamiast standardowego działania dwuargumentowego spełniającego trzy aksjomaty (łączności oraz istnienia elementów odwrotnych i neutralnego), w stercie definiujemy działanie trójargumentowe spełniające dwa aksjomaty (łączności i identyczności Mal'cev'a). Okazuje się, że istnieje wzajemna jednoznaczność pomiędzy stertami a grupami - na każdej stercie można zdefiniować grupę oraz na każdej grupie można skonstruować stertę za pomocą działania danej grupy. Sterty pozwalają na zdefiniowanie przestrzeni afinicznych w sposób niezależny od wyboru przestrzeni liniowej oraz stanowią podstawę konstrukcji wiązarów - struktury algebraicznej będącej wspólnym uogólnieniem pierścieni i klamerek. Na referacie przedstawię definicję stert oraz opowiem o ich wyżej wymienionych własnościach .

        Mówca: Sara Kopczyńska
    • 16:30
      Przerwa kawowa
    • 17:00
      Prezentacja sponsora - Aviva
    • Sesja matematyki stosowanej
      • 21
        Eksperymentalne wykorzystanie topologicznych metod dla wyznaczenia własności kwadratów łacińskich

        Kwadraty łacińskie stanowią ważny obiekt badań w kombinatoryce i teorii struktur algebraicznych. Jedną z kluczowych własności kwadratów łacińskich jest wzajemna ortogonalność kilku kwadratów. Choć jest to własność niezwykle łatwa do opisania, wyznaczenie zbioru wzajemnie ortogonalnych kwadratów łacińskich jest bardzo trudne. Trudne na tyle, że do tej pory nie wiemy, czy istnieją choćby trzy, wzajemnie ortogonalne kwadraty łacińskie 10x10.

        Zrozumienie jakie własności zbioru kwadratów decydują o ich wzajemnej ortogonalności lub jej braku zdaje się więc być kluczowe w tym problemie. Celem mojej prezentacji jest przedstawienie eksperymentalnego zastosowania metod topologicznych, w szczególności grup homologii oraz homologii persystentnych, do analizy związku między strukturą zbioru kwadratów łacińskich a ich wzajemną ortogonalnością.

        W trakcie wystąpienia omówię same kwadraty łacińskie i homologie persystente, przedstawię jak z kwadratu zbudować kompleks symplicjalny oraz jakie, eksperymentalne wyniki udało mi się do tej pory uzyskać. Choć zastosowane do tej pory metody nie dają statystycznie istotnych wyników, sam proces konstrukcji jest według mnie niezwykle ciekawy, a nietypowe podejście daje nadzieję na sukcesy w przyszłości.

        Mówca: Serhii Kuzminov (Jagiellonian university)
      • 22
        Wstęp do klasyfikacji danych za pomocą maszyn wektorów nośnych i ich odmian

        W trakcie referatu przedstawimy zarówno podstawy teoretyczne maszyny wektorów nośnych (Support Vector Machine, SVM), jak i jej praktyczne zastosowania. Zaczniemy od pojęcia klasyfikacji i ogólnej idei SVM. Omówimy dokładnie funkcje kosztu oraz związki SVM z przestrzeniami Hilberta z jądrem reprodukującym. Porównamy -- pod kątem zastosowań -- jądra liniowe, wielomianowe i gaussowskie (a więc te, które najczęściej pojawiają się w kontekście SVM). Następnie zajmiemy się maszyną wektorów nośnych dla metody najmniejszych kwadratów (LS-SVM) oraz klasyfikacją obejmującą więcej niż dwie klasy (Multiclass SVM). Na zakończenie zaprezentujemy implementację pewnego modelu SVM w języku Python.

        Mówca: Jakub Dyrcz (Studenckie Koło Naukowe Matematyków Politechniki Krakowskiej)
    • Sesja matematyki teoretycznej
      • 23
        Słów kilka o twierdzeniu Taniyamy-Shimury-Weila oraz krzywych eliptycznych.

        Twierdzenie Taniyamy-Shimury-Weila (TSW) stanowi jedno z najważniejszych osiągnięć matematyki XX wieku, łącząc teorię krzywych eliptycznych z formami modularnymi. Jego udowodnienie przez Andrew Wilesa w 1994 roku miało fundamentalne konsekwencje - w szczególności, w połączeniu z twierdzeniem Ribeta, doprowadziło do rozwiązania Wielkiego Twierdzenia Fermata.
        W referacie przedstawiona zostanie intuicja stojąca za TSW. Rozpoczniemy od omówienia podstaw teorii krzywych eliptycznych i ich struktury, a następnie przejdziemy do form modularnych. Pokażemy, że kluczową rolę w powiązaniu tych dwóch dziedzin odgrywają ich funkcje $L$; to właśnie modularność tych funkcji stanowi sedno TSW.
        W dalszej części naszkicujemy główne narzędzia używane w dowodzie, takie jak reprezentacje Galois oraz deformacje modularne. Referat zostanie wzbogacony o wybrane ilustracje i przykłady geometryczne, które pomogą lepiej zrozumieć omawiane idee, czyniąc prezentację zarówno precyzyjną, jak i przystępną.

        Mówca: Mateusz Rajzer (Uniwersytet Rzeszowski)
      • 24
        Czy kwadrat "jednostki urojonej" zawsze wynosi -1?

        Wychodząc od tytułowego pytania, w referacie omówię, co stanie się, gdy odejdziemy od kanonicznej definicji liczb zespolonych. Skupię się na trzech rozszerzeniach liczb rzeczywistych: klasycznych liczbach zespolonych oraz mniej znanych liczbach dualnych i hiperbolicznych, przy okazji wprowadzając pojęcie algebry nad ciałem. Każdy z tych systemów opiera się na innej definicji „jednostki urojonej”, której kwadrat wynosi odpowiednio -1, 0 oraz 1. Każda z tych algebr prowadzi do innej geometrii płaszczyzny, co uwidacznia się np. w kształcie okręgu jednostkowego. Następnie przejdę do omówienia liczb dualnych oraz hiperbolicznych i ich wykorzystania odpowiednio: w różniczkowaniu automatycznym oraz w transformacji Lorentza. Całość pozwoli spojrzeć na "jednostkę urojoną" nie jako na zwykłą stałą, a jako element definiujący strukturę i własności całej płaszczyzny.

        Mówca: Michał Stadnik (AGH Kraków)
    • 18:20
      Zakończenie dnia
    • Sesja matematyki stosowanej
      • 25
        Modelowanie i optymalizacja procesu ogrzewania pomieszczeń z wykorzystaniem równania przewodnictwa ciepła

        Ogrzewanie pomieszczeń jest procesem pochłaniającym znaczne ilości energii, dlatego optymalizacja sposobu jej wykorzystania ma kluczowe znaczenie dla efektywności energetycznej budynków, a w związku z tym budżetu mieszkańców.
        W niniejszej prezentacji omówimy modelowanie ogrzewania jednopoziomowego domu za pomocą niejednorodnego modelu przewodnictwa cieplnego z mieszanymi warunkami brzegowymi. Zastanowimy się nad wpływem ustawienia grzejników w pomieszczeniu na końcowy rozkład temperatury (dlaczego grzejniki z reguły są pod oknem?) oraz spróbujemy omówić kilka strategii ogrzewania z wykorzystaniem mechanizmu termostatu. Prezentacja poza opisem modelu będzie się składała z bogatej serii eksperymentów numerycznych.

        Mówca: Jan Żurek (Uniwersytet Wrocławski)
      • 26
        Wycena opcji finansowych z wykorzystaniem metody Monte Carlo

        Problem wyceny opcji finansowych jako instrumentu pochodnego jest zadaniem bardzo złożonym, w praktyce stosuje się szereg metod numerycznych i statystycznych w celu przybliżenia ich rzeczywistej wartości. Najbardziej elastyczną pod względem jej stosowania jest metoda Monte Carlo, której skuteczność przy wycenie opcji europejskich jest powszechnie znana, jednak w przypadku opcji amerykańskich nadal stanowi problem otwarty. W swoim referacie z matematycznego punktu widzenia przedstawię opcje europejskie i amerykańskie oraz omówię istotę problemu wyceny opcji amerykańskich z wykorzystaniem wspomnianej metody. Na koniec prezentacji podam również ważniejsze wyniki i propozycje rozwiązań tego problemu.

        Mówca: Paweł Lotko (Politechnika Łódzka)
    • Sesja matematyki teoretycznej
      • 27
        Grafy hamiltonowskie na szachownicy

        W referacie zacznę od przedstawienia problemu trasy skoczka, polegającego na znalezieniu ciągu ruchów skoczka odwiedzających każde pole szachownicy dokładnie raz. Jest to jedno z klasycznych zagadnień kombinatoryki i teorii grafów.

        W dalszej części skupię się na jednym z najważniejszych wyników dotyczących tego problemu - Twierdzeniu Schwenka. Twierdzenie to w pełni charakteryzuje prostokątne szachownice m x n, na których możliwa jest zamknięta trasa skoczka, czyli cykl Hamiltona w grafie ruchów skoczka. Przedstawię zarówno treść twierdzenia, jak i jego ideę dowodu.

        Mówca: Zuzanna Szeląg (Uniwersytet im. Adama Mickiewicza w Poznaniu)
      • 28
        Teoria bifurkacji w równaniach nieliniowych. Twierdzenie Crandalla-Rabinowitza i nie tylko.

        \begin{document}

        Teoria bifurkacji w równaniach nieliniowych. \
        Twierdzenie Crandalla-Rabinowitza i nie tylko.

        Mateusz Woroch
        Politechnika Gdańska,
        Naukowe Koło Matematyki Studentów Politechniki Gdańskiej

        Teoria bifurkacji jest fundamentalnym narzędziem w analizie nieliniowych równań postaci $F(x,\lambda) = 0$, gdzie $\lambda$ jest parametrem. Służy ona do znajdowania nietrywialnych rozwiązań, które pojawiają się w wyniku zmiany parametru, co można interpretować jako rozgałęzianie się rozwiązań przy krytycznych wartościach $\lambda$. Dwaj matematycy, Michael G. Crandall i Paul H. Rabinowitz, przedstawili warunek dostateczny na to, aby dane rozwiązanie było punktem bifurkacji. Niniejszy referat ma na celu wprowadzenie w zagadnienia bifurkacji poprzez podanie niezbędnych definicji i formalne sformułowanie problemu bifurkacji. Następnie, omówione zostanie Twierdzenie Crandalla-Rabinowitza. Przedstawimy dodatkowo warunek konieczny dla punktu bifurkacji oraz przykłady.

        \end{document}

        Mówca: Mateusz Woroch (Politechnika Gdańska)
    • 11:00
      Przerwa śniadaniowa
    • Sesja matematyki teoretycznej: Blok 1
      • 29
        Jakie powierzchnie można faktycznie zaczesać?

        Klasyczny problem „zaczesania sfery” (ang. hairy ball theorem) pyta, czy na sferze można niezerowo i ciągle ustawić wektor w każdym punkcie – czyli, w przenośni, „zaczesać sferę” bez powstawania wirów. Twierdzenie o zaczesaniu sfery, sformułowane i udowodnione przez Henriego Poincarégo oraz Luitzena Egberta Brouwera, głosi, że na sferze o parzystym wymiarze (w szczególności na sferze $S^{2}$) nie istnieje ciągłe, wszędzie niezerowe pole styczne. Innymi słowy, każda próba „zaczesania” sfery musi zakończyć się powstaniem co najmniej jednego punktu, w którym „włosy” stoją pionowo — czyli pole się zeruje.

        W referacie przedstawimy uogólnienia tego klasycznego wyniku na inne powierzchnie, zarówno orientowalne, jak i nieorientowalne, oraz rozważymy przypadki powierzchni z brzegiem. Odpowiemy na pytanie, dla których powierzchni istnieje ciągłe, wszędzie niezerowe pole styczne, czyli które powierzchnie „można faktycznie zaczesać”.

        W tym celu wykorzystamy narzędzia topologiczne, w szczególności charakterystykę Eulera, która odgrywa kluczową rolę w kryterium istnienia niezerowych pól stycznych. Wskażemy, w których przypadkach „zaczesanie” jest możliwe, a w których — nieuchronnie powstają wiry.

        Mówca: Patryk Topór (Politechnika Gdańska)
      • 30
        Tęczowe sześciokąty i grupy permutacji

        Jednym z fundamentalnych przykładów grup są grupy permutacji $S_n$ dla $n\ge 3$. W tej rodzinie szczególnie wyróżnia się grupa $S_6$, gdyż jako jedyna posiada automorfizm zewnętrzny, czyli taki który nie jest postaci $x\mapsto gxg^{-1}$ dla pewnego $g\in S_6$. Okazuje się, że automorfizmy zewnętrzne $S_6$ można skonstruować geometrycznie przy pomocy pewnego pokolorowania sześciokątów. W czasie wykładu postaram się przestawić tę konstrukcję, a także związki z innymi obiektami matematycznymi oraz z pewną zabawką dla psa.

        Mówca: Jagna Olszewska (Uniwersytet Wrocławski)
      • 31
        Jak proste twierdzenie z analizy pomogło rozwiązać problem milenijny - Różne postacie twierdzenia o funkcji odwrotnej

        Dobrze znane jest twierdzenie o funkcji odwrotnej, często wykładane na pierwszych semestrach analizy matematycznej. Jest ono zazwyczaj formułowane jako twierdzenie dotyczące funkcji $f: \mathbb{R}^n \to \mathbb{R}^n$. W trakcie referatu przyjrzymy się w jaki sposób to twierdzenie może zostać uogólnione, najpierw do przestrzeni Banacha, a następnie do przestrzeni Frecheta, zgodnie z formulacją Richarda Hamiltona z 1982 roku. Wprowadzimy potrzebne definicje oraz przyjrzymy się faktowi, że twierdzenie to sformułowane na przestrzeniach Frecheta, jest równoważne uogólnieniu twierdzenia Nasha o zanurzaniu, ważnemu twierdzeniu z teorii rozmaitości Riemannowskich. Zobaczymy w jaki sposób to zaskakujące powiązanie miało wpływ na późniejsze prace Hamiltona oraz Grigoriego Perelmana, co pozwoliło między innymi udowodnić hipotezę Poincare.

        Mówca: Stanisław Dombrowski (Politechnika Gdańska)
    • Sesja matematyki teoretycznej: Blok 2
      • 32
        Matematyka Żonglowania

        Przedstawimy teorię matematyczną opisującą żonglowanie. Pokażemy często używane notacje opisujące procesy związane z tą dziedziną. Wyprowadzimy wzór na ilość unikalnych sposobów żonglowania. Udowodnimy kilka prostych twierdzeń związanych z kuglarstwem. Zdefiniujemy żonglowania pierwsze i pokażemy kilka ich własności. Odnotujemy powiązanie żonglowania z innymi działami matematyki, m. in. teorią grafów i teorią warkoczy. Wszystkiemu będą towarzyszyć demonstracje żonglowania na żywo.

        Mówca: Kacper Błachut
      • 33
        Znaczenie pojęcia styczności w twierdzeniach o istnieniu miejsc zerowych

        Nie trzeba nikogo przekonywać o istotności twierdzeń orzekających o istnieniu miejsc zerowych odwzorowań ciągłych. W moim referacie postaram się Was przekonać o tym, że pojęcie styczności odgrywa w tego typu twierdzeniach bardzo istotną rolę. Okazuje się bowiem, że dzięki niemu można na wiele z twierdzeń o istnieniu zer spojrzeć z zupełnie nowej perspektywy! Na referacie zdefiniuję, czym jest stożek styczny do zbioru, żeby później, korzystając z twierdzenia Browdera opowiedzieć o kilku twierdzeniach o istnieniu miejsc zerowych (m.in. tw. Poincaré-Mirandy i tw. Vrahatisa), w których styczność się kryje, choć nie zawsze widać ją na pierwszy rzut oka.

        Mówca: Karolina Fisiak (Politechnika Łódzka)
      • 34
        Dowód przez rzut makaronem

        W trakcie referatu zostanie pokazane uogólnienie problemu igły Buffona i jego zastosowanie do nietypowego, probabilistycznego dowodu twierdzenia Barbiera w geometrii.

        Mówca: Tymon Świtalski (Politechnika Wrocławska)
    • 13:00
      Przerwa kawowa
    • 13:30
      Zakończenie konferencji