- Indico style
- Indico style - inline minutes
- Indico style - numbered
- Indico style - numbered + minutes
- Indico Weeks View
Your profile timezone:
W matematyce oraz informatyce bada się różne rodzaje problemów optymalizacyjnych. Dla wielu z nich udało się opracować efektywne algorytmy, które zawsze pozwalają znaleźć optymalne rozwiązanie. Są jednak i takie, dla których nie znamy algorytmów o zadowalającym czasie działania. Co więcej, mamy poważne powody, żeby przypuszczać, że dla niektórych problemów takie algorytmy w ogóle nie istnieją. Na szczęście okazuje się, że nawet w przypadku bardzo trudnych obliczeniowo problemów nie wszystko jest stracone. Mogą bowiem istnieć dla nich szybkie algorytmy, które zawsze dają rozwiązanie w pewnym określonym sensie bliskie optymalnemu. Są to tak zwane algorytmy aproksymacyjne. W moim referacie chciałbym opowiedzieć o tej fascynującej dziedzinie algorytmiki. Przyjrzymy kilku klasycznym problemom optymalizacji dyskretnej, takim jak problem plecakowy, problem komiwojażera czy problem pokrycia wierzchołkowego. Zastanowimy się, dla których z nich istnieją algorytmy aproksymacyjne, przeanalizujemy ich działanie oraz udowodnimy ich poprawność. Przekonamy się, że są problemy, które można aproksymować z dowolną dokładnością, oraz takie, dla których prawdopodobnie wcale nie jest to możliwe. Przy okazji zetkniemy się z tym, co algorytmicy lubią najbardziej – analizą algorytmów, teorią grafów i złożonością obliczeniową.
Spotykanie przez sprzęganie — dynamika Glaubera w teorii łańcuchów Markowa
Wiele zjawisk, które obserwujemy w naturze i technologii — od ruchu cząstek po algorytmy komputerowe — ma w sobie element losowości. Jednym z najważniejszych narzędzi do ich opisu są łańcuchy Markowa, czyli modele, w których przyszłość zależy tylko od obecnego stanu, a nie od całej historii. W referacie opowiem o metodzie sprzęgania (couplingu) — eleganckim sposobie badania, jak takie losowe systemy z czasem „dochodziły” do równowagi.
Metoda ta pozwala badać zbieżność do rozkładu stacjonarnego, kontrolować czas mieszania oraz konstruować losowe próbki z rozkładu stacjonarnego bez potrzeby znajomości samego czasu zbieżności. Sprzęganie znajduje zastosowania nie tylko w czystej teorii prawdopodobieństwa, lecz także w fizyce statystycznej, teorii sieci i algorytmach symulacyjnych.
W pierwszej części przypomniane zostaną podstawowe pojęcia potrzebne do zdefiniowania sprzęgania dwóch (a później większej liczby) łańcuchów Markowa. Następnie omówione zostaną intuicje i zastosowania couplingu w prostych modelach.
W drugiej części przejdziemy do bardziej złożonej konstrukcji — Coupling from the Past (CFTP), techniki pozwalającej wygenerować próbkę z rozkładu stacjonarnego łańcucha Markowa, uruchamiając wiele sprzężonych trajektorii z przeszłości aż do momentu ich koalescencji. W tym kontekście zostanie szczegółowo przedstawiony model hardcore (dynamika Glaubera) — układ cząstek na grafie z lokalnym ograniczeniem zajętości.
Kryptografia krzywych eliptycznych (ECC) stanowi jeden z filarów nowoczesnych systemów zabezpieczających dane. Jej kluczowa rola w dzisiejszej informatyce wynika ze zdolności do zapewnienia tego samego poziomu bezpieczeństwa co w przypadku klasycznych systemów (np. opartych na problemie faktoryzacji) przy użyciu znacznie krótszych, a tym samym wydajniejszych obliczeniowo kluczy. Jest ona niezbędnym narzędziem w protokołach bezpiecznej komunikacji (np. TLS), podpisach cyfrowych czy kryptowalutach.
Celem referatu jest omówienie –- od strony matematycznej -– definicji i podstawowych własności krzywych eliptycznych, przybliżenie pojęć związanych z bezpieczeństwem protokołów kryptograficznych bazujących na tych krzywych, a wreszcie przedstawienie działania i zastosowań protokołu wymiany kluczy ECDH (Elliptic Curve Diffie-Hellman).
W części pierwszej zaprezentujemy klasyczny protokół Diffiego-Hellmana, wyjaśnimy, na czym polega problem logarytmu dyskretnego, oraz wskażemy motywację do poszukiwania rozwiązań wydajniejszych niż ten protokół. Następnie zajmiemy się podstawami matematycznymi -- od definicji krzywej eliptycznej nad ciałem liczb rzeczywistych po kluczową dla kryptografii grupę punktów na krzywej eliptycznej nad ciałem skończonym. Zaprezentujemy również implementację edukacyjną, która zwizualizuje dodawanie punktów. W dalszej części referatu omówimy problem logarytmu dyskretnego na krzywych eliptycznych, sklasyfikujemy ataki na systemy kryptograficzne oparte na ECC i sformułujemy kryteria bezpieczeństwa dla takich systemów. Przedstawimy ponadto działanie protokołu ECDH i zaprezentujemy pewne standardowe krzywe stosowane powszechnie do ochrony danych. Na koniec zademonstrujemy implementację realizującą protokół ECDH przy użyciu nowoczesnej biblioteki cryptography. Dzięki temu będziemy mogli zestawić teorię z jej praktycznymi zastosowaniami.
W Polsce, jak i w wielu innych demokracjach świata, obserwujemy wybory binarne, których wyniki kształtują się około 50% na 50%. Opowiem o modelu zainspirowanym modelem Isinga, który próbuje wyjaśnić to zjawisko. W owym modelu rozważamy sieć wyborców, którzy mogą przyjąć jedną z dwóch opinii. Wyborcy preferują opinię zgodną z sąsiadami i przeciwną do faworyta sondażów. Prowadzi to do stanu podzielonego społeczeństwa, który wydaje się zgodny z dynamiką sondaży i wynikami wyborów ze świata rzeczywistego - wyborcy są ułożeni w dwa przeciwnie głosujące obozy podobnej wielkości, z granicą ustaloną w miejscu z najmniejszą liczbą połączeń.
Celem wykładu jest znalezienie wszystkich liczb Fibonacciego, które są potęgami liczb całkowitych. By uzyskać wynik, zostaną wykorzystane narzędzia z teorii liniowych form logarytmów Bakera, mające swoje źródła w rozwiązaniu siódmego problemu Hilberta.
W prelekcji zostaną najpierw przedstawione podstawy teorii liniowych form logarytmów Bakera oraz kluczowe oszacowania, pozwalające nam ograniczyć zbiór rozwiązań różnych równań diofantycznych do zbioru skończonego. Następnie będzie omawiane zagadnienie rozwiązań równań Thuego, czyli równań postaci F(x,y)=m, gdzie F jest wielomianem nierozkładalnym stopnia co najmniej 3 o współczynnikach całkowitych, zaś m jest liczbą całkowitą. Po zapoznaniu słuchaczy z wyżej wymienionymi metodami, zostanie przedstawiony dowód, że jedyne liczby Fibonacciego, które są potęgami (co najmniej drugimi) liczb całkowitych, to F_0=0, F_1=1, F_2=1, F_6=8 oraz F_12=144.
Prezentacja poświęcona jest zagadnieniu kombinatorycznych charakteryzacji własności pokryciowych przestrzeni topologicznych, które stanowią ważny obszar badań w topologii ogólnej. Celem wystąpienia jest pokazanie, w jaki sposób własności topologiczne — takie jak np. własność Mengera czy Hurewicza— mogą być opisane przy użyciu narzędzi i idei pochodzących z kombinatoryki oraz teorii mnogości. Przedstawione zostaną podstawowe pojęcia dotyczące pokryć otwartych i własności pokryciowych oraz diagram przedstawiający powiązania pomiędzy nimi. W prezentacji pojawią się również krytyczne liczby kardynalne dla danych własności oraz ich definicje.
Wędrówka chaotyczna (chaotic itinerancy) to rodzaj zachowania obserwowanego w układach dynamicznych na pograniczu chaosu i uporządkowania. Zjawisko to polega na tym, że trajektoria układu przez pewien czas przebywa w stanie uporządkowanym, po czym przechodzi do stanu chaotycznego. Po jakimś czasie trajektoria znowu wraca do - być może innego - stanu uporządkowanego i ten proces jest kontynuowany. Takie stany uporządkowane nazywane są ruinami atraktorów, ponieważ wyglądają tak, jakby powstały z atraktorów, które utraciły stabilność wskutek bifurkacji. Trajektoria układu wędruje między ruinami atraktorów w sposób nieprzewidywalny. Zjawisko wędrówki chaotycznej wykorzystuje się m.in. do modelowania działania mózgu i skomplikowanych układów biologicznych oraz do symulowania spontaniczności w sztucznej inteligencji.
Podczas referatu przedstawię opracowaną przeze mnie metodę wykrywania zjawiska wędrówki chaotycznej w oparciu o uczenie maszynowe i statystyczne miary niepewności. Zademonstruję działanie tej metody na przykładzie układu sprzężonych chaotycznych odwzorowań jednowymiarowych, który jest sztandarowym przykładem pokazywanym w literaturze. Wykorzystanie pojęcia entropii pozwala znaleźć parametry układu, przy których można zaobserwować wędrówkę chaotyczną. Natomiast użycie algorytmu grupowania dla punktów danej trajektorii w przestrzeni fazowej pozwala wykryć gęste obszary jako potencjalne przybliżenia ruin atraktorów. Dla tak znalezionych skupisk można analizować przejścia między nimi i przeprowadzić statystyczne testy losowości w celu potwierdzenia nieprzewidywalności dynamiki, która jest kluczową cechą tego zjawiska.
W dobie nadmiaru informacji i łatwości publikacji treści efektywne określenie
głównej tematyki dużych zbiorów tekstowych staje się wyzwaniem. W takim
przypadku tradycyjna analiza jest czasochłonna i nieefektywna. Odpowiedzią na
to wyzwanie są nowoczesne metody analizy tekstu, w tym model ukrytej alokacji
Dirichleta (LDA – Latent Dirichlet Allocation), który pozwala na identyfikację
ukrytych tematów na podstawie rozkładów prawdopodobieństwa współwystę-
powania słów. Dzięki wykorzystaniu języków programowania takich jak Python
czy R możliwe jest zautomatyzowanie tego procesu i przeprowadzenie analizy
nawet na bardzo dużych zbiorach danych. W referacie przedstawiono ogólne
założenia modelu LDA, jego implementację oraz przykładowe wyniki analizy
tematycznej przeprowadzonej na wybranym korpusie tekstów. Uzyskane wyniki potwierdzają przydatność tego podejścia w eksploracji danych tekstowych
i identyfikacji dominujących tematów badawczych.
Zjawisko Rungego stanowi jedno z najbardziej intrygujących przykładów sytuacji, w której matematyczna rzeczywistość przeczy naszej intuicji. Dotyczy ono interpolacji wielomianowej - procesu, który powinien przybliżać dowolną funkcję wielomianem coraz lepiej wraz ze wzrostem liczby punktów (węzłów). Jednak wbrew oczekiwaniom, dla pewnych funkcji i rozmieszczeń punktów, przybliżenie wielomianowe zaczyna się dramatycznie pogarszać. To zjawisko, po raz pierwszy opisane przez Carla Rungego pod koniec XIX wieku, do dziś stanowi istotny punkt odniesienia w analizie numerycznej.
W wystąpieniu przybliżę istotę wielomianów Czebyszewa, jako rozwiązanie tego problemu, przestawiając je zarówno teoretyczne i wizualnie. Celem prezentacji jest pokazanie, że matematyka nie tylko opisuje świat, ale potrafi również skutecznie korygować nasze błędne wyobrażenia o tym, jak „powinno być”.
Wiele z nas kojarzy księgę Szkocką w której lwowscy matematycy pisali problemy wymagające rozwiązania. Jednak ile z tych problemów jest nam faktycznie znane? Pokażę rozwiązania kilku z do tej pory rozwiązanych problemów i być może zainteresuję uczestników tymi nierozwiązanymi, których wciąż wiele można w księdze znaleźć.
Analiza nieliniowych układów dynamicznych jest często trudna, szczególnie dla wysokowymiarowych układów oraz takich, które są chaotyczne.
W referacie przedstawiamy metodę analizy dynamiki układu zadanego przez ciągłe odwzorowanie $f\colon X\ni x_t\mapsto x_{t+1} \in X$ polegającą na dyskretyzacji przestrzeni fazowej na skończony zbiór $n$-kostek, $\mathcal{X}$. Dzięki takiemu podziałowi możemy skonstruować wielowartościowe odwzorowanie $\mathcal{F}\colon \mathcal{X}\multimap \mathcal{X}$, które interpretujemy jako ważony graf skierowany, opisujący odwzorowanie kostek w siebie nawzajem. Taka reprezentacja układu pozwala na użycie efektywnych algorytmów grafowych np. w celu poszukiwania punktów stałych, orbit okresowych lub określenia czy układ jest topologicznie tranzytywny przy ustalonej skończonej rozdzielczości [1,2]. Dla układów, w których występuje zjawisko wędrówki chaotycznej [3], gdzie trajektorie przejawiają złożoną dynamikę łączącą chaos z momentami uporządkowanego ruchu w pobliżu quasi-atraktorów, proponujemy metodę filtracji grafu $\mathcal{F_\tau}$ pozwalającą na odseparowanie interesujących nas obszarów od chaotycznych przejść. Nadawanie wag krawędziom grafu $\mathcal{F_\tau}$ pozwala także na wykorzystanie metod statystycznych, takich jak wyznaczenie rozkładu stacjonarnego powstałego łańcucha Markowa oraz śledzenie przejść pomiędzy quasi-atraktorami w sposób ilościowy. Pokażemy wyniki zastosowania powyższych metod do analizy dwóch typów układów dynamicznych: klasycznego odwzorowania Henona, w którym obserwuje się dynamikę chaotyczną, oraz układu sprzężonych odwzorowań jednowymiarowych, w którym zaobserwować można zjawisko wędrówki chaotycznej.
[1] Arai, Z., Kalies, W., Kokubu, H., Mischaikow, K., Oka, H. & Pilarczyk, P. (2009). A Database Schema for the Analysis of Global Dynamics of Multiparameter Systems. SIAM Journal on Applied Dynamical Systems, 8(3), 757–789.
[2] Luzzatto, S. & Pilarczyk, P. (2011). Finite resolution dynamics. Foundations of Computational Mathematics, 11(2), 211–239.
[3] Kaneko, K. & Tsuda, I. (2003). Chaotic itinerancy. Chaos, 13(3), 926–936.
Dzielące się przez jeden i samą siebie liczby skrywają w sobie wiele tajemnic, które od stuleci fascynują matematyków. Choć ich rozmieszczenie wydaje się chaotyczne, w tym pozornym nieładzie można dostrzec zaskakujące wzory i regularności.
W referacie Porządek w chaosie spróbujemy uchwycić te ukryte zależności. Zaczniemy od słynnego wzoru Eulera $n^2 + n + 41$, który przez długi czas generuje wyłącznie liczby pierwsze — aż do momentu, gdy porządek ustępuje chaosowi. Następnie przejdziemy do ich geometrycznego rozmieszczenia na spirali Ulama, gdzie symetria i przypadek spotykają się w jednym obrazie.
Poznamy także podstawowe twierdzenia Bertranda-Czebyszewa, Dirichleta i Gaussa, które opisują gęstość i rozkład liczb pierwszych, pozwalając spojrzeć na ich strukturę w nowy sposób.
Wszystko to prowadzi do pytania, które pozostaje otwarte: czy wśród nieskończonego zbioru liczb pierwszych naprawdę panuje chaos, czy raczej ukryty porządek, który dopiero zaczynamy rozumieć?
W referacie przedstawię zasady gry set i podam jej matematyczną interpretację. Pokażę kilka prostych faktów na jej temat i zajmę się problemem cap set (problem szukania zbioru punktów w którym nie ma punktów tworzących prostą w Z_3^4) w wymiarach 2, 3 i 4. Krótko omówię problem cap set w wyższych wymiarach. Powiem czym jest gra "typu" set i opowiem o systemach trójkowych Steinera i rzutowym secie.
Problem optymalnego rozliczania długów w grupie uczestników można ująć jako zadanie minimalizacji liczby lub kosztu transferów w sieci długów. W referacie przedstawię jego model w języku teorii grafów oraz związki z klasycznymi zagadnieniami optymalizacyjnymi, takimi jak przepływ o minimalnym koszcie (minimum-cost flow) i algorytm anulowania cykli (cycle cancelling). Omówię także podejście zachłanne oraz porównam skuteczność poszczególnych metod, pokazując, w jaki sposób narzędzia teorii grafów pozwalają efektywnie rozwiązywać praktyczne problemy rozliczeń.
W prezentacji przedstawiono system, który stanowi kompletny pipeline predykcji meczów piłki nożnej na podstawie danych pochodzących z czterech najwyższych lig piłkarskich w Anglii - od surowych danych po symulację szczegółowych statystyk spotkania. Punkt wyjścia stanowi integracja wielu źródeł: historii meczów, składów, wartości rynkowych oraz tabel ligowych, przekształcanych w spójny panel meczowy z rozbudowanym zestawem cech przedmeczowych. Na tej bazie zbudowany jest rozszerzony system rankingowy Elo, w którym ratingi drużyn aktualizowane są po każdym meczu z uwzględnieniem przebiegu spotkania i przewagi własnego boiska, tak aby dynamicznie odzwierciedlać realną siłę zespołów. Równolegle estymowana jest forma ofensywna i defensywna, liczona względem ligowego tła z wykorzystaniem xG oraz ważonej historii, z większym naciskiem na ostatnie spotkania. Kolejna warstwa to gwiazdkowy system oceny ataku, obrony i ogólnej jakości drużyn. Całość domyka blok TDPR (Time-Dependent Poisson Regression), czyli modele Poissona i regresje, które generują szczegółowe statystyki meczu. Symulacja ma charakter probabilistyczny: losujemy przebieg całego meczu, więc ten sam zestaw wejść może prowadzić do różnych rezultatów. Projekt prezentuje ogólną ramę, którą można rozwijać o dodatkowe źródła i warianty modeli.
Prezentacja omawia ukrytą regularyzację – zjawisko, w którym algorytmy optymalizacyjne, bez jawnego członu regularyzującego, preferują pewne rozwiązania, które lepiej generalizują.
Te zjawiska zostaną wyprowadzone za pomocą analizy wstecznej błędu.
Zbiór $\widetilde{X}$ nazywamy przestrzenią nakrywającą przestrzeni $X$, jeżeli istnieje takie odwzorowanie $p\colon \widetilde{X}\to X$, dla którego spełniony jest następujący warunek: dla każdego $x\in X$ istnieje otoczenie otwarte $U\in X$ takie, że $p^{-1}(U)$ stanowi rozłączną sumę zbiorów otwartych w $\widetilde{X}$, z których każdy jest homeomorficzny z $U$.
Podczas referatu podamy przykłady różnych przestrzeni nakrywających dla okręgu, bukietu okręgów czy genusów z $n$ dziurami i omówimy ich związek z grupą podstawową tych obiektów. Omówimy także, kiedy dana przestrzeń posiada nakrycie uniwersalne, czyli przestrzeń nakrywającą wszystkie spójne $\widetilde{X}$ dla przestrzeni $X$.
Podstawowym obiektem badań w geometrii algebraicznej są rozmaitości algebraiczne, czyli zbiory układów równań wielomianowych. W przeciwieństwie do układów liniowych, wielomianowe układy równań wielu zmiennych nie poddają się prostym metodom eliminacji ani rachunkowi macierzowemu. Z pomocą przychodzą bazy Gröbnera, które przekształcają zbiór generujący ideał wielomianów w postać kanoniczną, z której eliminacja zmiennych, rozwiązywanie układów oraz badanie własności strukturalnych staje się przejrzyste.
W refereacie, poprzez konkretne przykłady, przedstawimy algorytm dzielenia z resztą w $k[x_1, \dots , x_n]$ oraz algorytm Buchbergera, który w konstruktywny sposób pozwala nam wyznaczyć bazę Gröbnera.
Sterta jest pewnym uogólnieniem pojęcia grupy - zamiast standardowego działania dwuargumentowego spełniającego trzy aksjomaty (łączności oraz istnienia elementów odwrotnych i neutralnego), w stercie definiujemy działanie trójargumentowe spełniające dwa aksjomaty (łączności i identyczności Mal'cev'a). Okazuje się, że istnieje wzajemna jednoznaczność pomiędzy stertami a grupami - na każdej stercie można zdefiniować grupę oraz na każdej grupie można skonstruować stertę za pomocą działania danej grupy. Sterty pozwalają na zdefiniowanie przestrzeni afinicznych w sposób niezależny od wyboru przestrzeni liniowej oraz stanowią podstawę konstrukcji wiązarów - struktury algebraicznej będącej wspólnym uogólnieniem pierścieni i klamerek. Na referacie przedstawię definicję stert oraz opowiem o ich wyżej wymienionych własnościach .
Kwadraty łacińskie stanowią ważny obiekt badań w kombinatoryce i teorii struktur algebraicznych. Jedną z kluczowych własności kwadratów łacińskich jest wzajemna ortogonalność kilku kwadratów. Choć jest to własność niezwykle łatwa do opisania, wyznaczenie zbioru wzajemnie ortogonalnych kwadratów łacińskich jest bardzo trudne. Trudne na tyle, że do tej pory nie wiemy, czy istnieją choćby trzy, wzajemnie ortogonalne kwadraty łacińskie 10x10.
Zrozumienie jakie własności zbioru kwadratów decydują o ich wzajemnej ortogonalności lub jej braku zdaje się więc być kluczowe w tym problemie. Celem mojej prezentacji jest przedstawienie eksperymentalnego zastosowania metod topologicznych, w szczególności grup homologii oraz homologii persystentnych, do analizy związku między strukturą zbioru kwadratów łacińskich a ich wzajemną ortogonalnością.
W trakcie wystąpienia omówię same kwadraty łacińskie i homologie persystente, przedstawię jak z kwadratu zbudować kompleks symplicjalny oraz jakie, eksperymentalne wyniki udało mi się do tej pory uzyskać. Choć zastosowane do tej pory metody nie dają statystycznie istotnych wyników, sam proces konstrukcji jest według mnie niezwykle ciekawy, a nietypowe podejście daje nadzieję na sukcesy w przyszłości.
W trakcie referatu przedstawimy zarówno podstawy teoretyczne maszyny wektorów nośnych (Support Vector Machine, SVM), jak i jej praktyczne zastosowania. Zaczniemy od pojęcia klasyfikacji i ogólnej idei SVM. Omówimy dokładnie funkcje kosztu oraz związki SVM z przestrzeniami Hilberta z jądrem reprodukującym. Porównamy -- pod kątem zastosowań -- jądra liniowe, wielomianowe i gaussowskie (a więc te, które najczęściej pojawiają się w kontekście SVM). Następnie zajmiemy się maszyną wektorów nośnych dla metody najmniejszych kwadratów (LS-SVM) oraz klasyfikacją obejmującą więcej niż dwie klasy (Multiclass SVM). Na zakończenie zaprezentujemy implementację pewnego modelu SVM w języku Python.
Twierdzenie Taniyamy-Shimury-Weila (TSW) stanowi jedno z najważniejszych osiągnięć matematyki XX wieku, łącząc teorię krzywych eliptycznych z formami modularnymi. Jego udowodnienie przez Andrew Wilesa w 1994 roku miało fundamentalne konsekwencje - w szczególności, w połączeniu z twierdzeniem Ribeta, doprowadziło do rozwiązania Wielkiego Twierdzenia Fermata.
W referacie przedstawiona zostanie intuicja stojąca za TSW. Rozpoczniemy od omówienia podstaw teorii krzywych eliptycznych i ich struktury, a następnie przejdziemy do form modularnych. Pokażemy, że kluczową rolę w powiązaniu tych dwóch dziedzin odgrywają ich funkcje $L$; to właśnie modularność tych funkcji stanowi sedno TSW.
W dalszej części naszkicujemy główne narzędzia używane w dowodzie, takie jak reprezentacje Galois oraz deformacje modularne. Referat zostanie wzbogacony o wybrane ilustracje i przykłady geometryczne, które pomogą lepiej zrozumieć omawiane idee, czyniąc prezentację zarówno precyzyjną, jak i przystępną.
Wychodząc od tytułowego pytania, w referacie omówię, co stanie się, gdy odejdziemy od kanonicznej definicji liczb zespolonych. Skupię się na trzech rozszerzeniach liczb rzeczywistych: klasycznych liczbach zespolonych oraz mniej znanych liczbach dualnych i hiperbolicznych, przy okazji wprowadzając pojęcie algebry nad ciałem. Każdy z tych systemów opiera się na innej definicji „jednostki urojonej”, której kwadrat wynosi odpowiednio -1, 0 oraz 1. Każda z tych algebr prowadzi do innej geometrii płaszczyzny, co uwidacznia się np. w kształcie okręgu jednostkowego. Następnie przejdę do omówienia liczb dualnych oraz hiperbolicznych i ich wykorzystania odpowiednio: w różniczkowaniu automatycznym oraz w transformacji Lorentza. Całość pozwoli spojrzeć na "jednostkę urojoną" nie jako na zwykłą stałą, a jako element definiujący strukturę i własności całej płaszczyzny.
Ogrzewanie pomieszczeń jest procesem pochłaniającym znaczne ilości energii, dlatego optymalizacja sposobu jej wykorzystania ma kluczowe znaczenie dla efektywności energetycznej budynków, a w związku z tym budżetu mieszkańców.
W niniejszej prezentacji omówimy modelowanie ogrzewania jednopoziomowego domu za pomocą niejednorodnego modelu przewodnictwa cieplnego z mieszanymi warunkami brzegowymi. Zastanowimy się nad wpływem ustawienia grzejników w pomieszczeniu na końcowy rozkład temperatury (dlaczego grzejniki z reguły są pod oknem?) oraz spróbujemy omówić kilka strategii ogrzewania z wykorzystaniem mechanizmu termostatu. Prezentacja poza opisem modelu będzie się składała z bogatej serii eksperymentów numerycznych.
Problem wyceny opcji finansowych jako instrumentu pochodnego jest zadaniem bardzo złożonym, w praktyce stosuje się szereg metod numerycznych i statystycznych w celu przybliżenia ich rzeczywistej wartości. Najbardziej elastyczną pod względem jej stosowania jest metoda Monte Carlo, której skuteczność przy wycenie opcji europejskich jest powszechnie znana, jednak w przypadku opcji amerykańskich nadal stanowi problem otwarty. W swoim referacie z matematycznego punktu widzenia przedstawię opcje europejskie i amerykańskie oraz omówię istotę problemu wyceny opcji amerykańskich z wykorzystaniem wspomnianej metody. Na koniec prezentacji podam również ważniejsze wyniki i propozycje rozwiązań tego problemu.
W referacie zacznę od przedstawienia problemu trasy skoczka, polegającego na znalezieniu ciągu ruchów skoczka odwiedzających każde pole szachownicy dokładnie raz. Jest to jedno z klasycznych zagadnień kombinatoryki i teorii grafów.
W dalszej części skupię się na jednym z najważniejszych wyników dotyczących tego problemu - Twierdzeniu Schwenka. Twierdzenie to w pełni charakteryzuje prostokątne szachownice m x n, na których możliwa jest zamknięta trasa skoczka, czyli cykl Hamiltona w grafie ruchów skoczka. Przedstawię zarówno treść twierdzenia, jak i jego ideę dowodu.
\begin{document}
Teoria bifurkacji w równaniach nieliniowych. \
Twierdzenie Crandalla-Rabinowitza i nie tylko.
Mateusz Woroch
Politechnika Gdańska,
Naukowe Koło Matematyki Studentów Politechniki Gdańskiej
Teoria bifurkacji jest fundamentalnym narzędziem w analizie nieliniowych równań postaci $F(x,\lambda) = 0$, gdzie $\lambda$ jest parametrem. Służy ona do znajdowania nietrywialnych rozwiązań, które pojawiają się w wyniku zmiany parametru, co można interpretować jako rozgałęzianie się rozwiązań przy krytycznych wartościach $\lambda$. Dwaj matematycy, Michael G. Crandall i Paul H. Rabinowitz, przedstawili warunek dostateczny na to, aby dane rozwiązanie było punktem bifurkacji. Niniejszy referat ma na celu wprowadzenie w zagadnienia bifurkacji poprzez podanie niezbędnych definicji i formalne sformułowanie problemu bifurkacji. Następnie, omówione zostanie Twierdzenie Crandalla-Rabinowitza. Przedstawimy dodatkowo warunek konieczny dla punktu bifurkacji oraz przykłady.
\end{document}
Klasyczny problem „zaczesania sfery” (ang. hairy ball theorem) pyta, czy na sferze można niezerowo i ciągle ustawić wektor w każdym punkcie – czyli, w przenośni, „zaczesać sferę” bez powstawania wirów. Twierdzenie o zaczesaniu sfery, sformułowane i udowodnione przez Henriego Poincarégo oraz Luitzena Egberta Brouwera, głosi, że na sferze o parzystym wymiarze (w szczególności na sferze $S^{2}$) nie istnieje ciągłe, wszędzie niezerowe pole styczne. Innymi słowy, każda próba „zaczesania” sfery musi zakończyć się powstaniem co najmniej jednego punktu, w którym „włosy” stoją pionowo — czyli pole się zeruje.
W referacie przedstawimy uogólnienia tego klasycznego wyniku na inne powierzchnie, zarówno orientowalne, jak i nieorientowalne, oraz rozważymy przypadki powierzchni z brzegiem. Odpowiemy na pytanie, dla których powierzchni istnieje ciągłe, wszędzie niezerowe pole styczne, czyli które powierzchnie „można faktycznie zaczesać”.
W tym celu wykorzystamy narzędzia topologiczne, w szczególności charakterystykę Eulera, która odgrywa kluczową rolę w kryterium istnienia niezerowych pól stycznych. Wskażemy, w których przypadkach „zaczesanie” jest możliwe, a w których — nieuchronnie powstają wiry.
Jednym z fundamentalnych przykładów grup są grupy permutacji $S_n$ dla $n\ge 3$. W tej rodzinie szczególnie wyróżnia się grupa $S_6$, gdyż jako jedyna posiada automorfizm zewnętrzny, czyli taki który nie jest postaci $x\mapsto gxg^{-1}$ dla pewnego $g\in S_6$. Okazuje się, że automorfizmy zewnętrzne $S_6$ można skonstruować geometrycznie przy pomocy pewnego pokolorowania sześciokątów. W czasie wykładu postaram się przestawić tę konstrukcję, a także związki z innymi obiektami matematycznymi oraz z pewną zabawką dla psa.
Dobrze znane jest twierdzenie o funkcji odwrotnej, często wykładane na pierwszych semestrach analizy matematycznej. Jest ono zazwyczaj formułowane jako twierdzenie dotyczące funkcji $f: \mathbb{R}^n \to \mathbb{R}^n$. W trakcie referatu przyjrzymy się w jaki sposób to twierdzenie może zostać uogólnione, najpierw do przestrzeni Banacha, a następnie do przestrzeni Frecheta, zgodnie z formulacją Richarda Hamiltona z 1982 roku. Wprowadzimy potrzebne definicje oraz przyjrzymy się faktowi, że twierdzenie to sformułowane na przestrzeniach Frecheta, jest równoważne uogólnieniu twierdzenia Nasha o zanurzaniu, ważnemu twierdzeniu z teorii rozmaitości Riemannowskich. Zobaczymy w jaki sposób to zaskakujące powiązanie miało wpływ na późniejsze prace Hamiltona oraz Grigoriego Perelmana, co pozwoliło między innymi udowodnić hipotezę Poincare.
Przedstawimy teorię matematyczną opisującą żonglowanie. Pokażemy często używane notacje opisujące procesy związane z tą dziedziną. Wyprowadzimy wzór na ilość unikalnych sposobów żonglowania. Udowodnimy kilka prostych twierdzeń związanych z kuglarstwem. Zdefiniujemy żonglowania pierwsze i pokażemy kilka ich własności. Odnotujemy powiązanie żonglowania z innymi działami matematyki, m. in. teorią grafów i teorią warkoczy. Wszystkiemu będą towarzyszyć demonstracje żonglowania na żywo.
Nie trzeba nikogo przekonywać o istotności twierdzeń orzekających o istnieniu miejsc zerowych odwzorowań ciągłych. W moim referacie postaram się Was przekonać o tym, że pojęcie styczności odgrywa w tego typu twierdzeniach bardzo istotną rolę. Okazuje się bowiem, że dzięki niemu można na wiele z twierdzeń o istnieniu zer spojrzeć z zupełnie nowej perspektywy! Na referacie zdefiniuję, czym jest stożek styczny do zbioru, żeby później, korzystając z twierdzenia Browdera opowiedzieć o kilku twierdzeniach o istnieniu miejsc zerowych (m.in. tw. Poincaré-Mirandy i tw. Vrahatisa), w których styczność się kryje, choć nie zawsze widać ją na pierwszy rzut oka.
W trakcie referatu zostanie pokazane uogólnienie problemu igły Buffona i jego zastosowanie do nietypowego, probabilistycznego dowodu twierdzenia Barbiera w geometrii.