Opis: Ostatnie lata charakteryzowały się olbrzymim postępem w dziedzinie sieci neuronowych. Wielkie modele językowe mają dzisiaj możliwości, które wydawały się nieosiągalne jeszcze kilka lat temu. Rozwój ten budzi wiele kontrowersji, także dlatego, że czysto statystyczne sieci neuronowe, takie jak transformer networks używane w wielkich modelach językowych, uważane są za modele typu „black box”, których działanie jest nieprzewidywalne i niezrozumiałe dla ludzi. Dodatkowo, przynajmniej tworzenie modeli bazowych wymaga olbrzymich zasobów obliczeniowych, niedostępnych nawet dla wielu instytucji badawczych. Choć nie jest to do końca prawdą, uzasadnia coraz większe zainteresowanie nieco innym podejściem: różnego rodzaju modelami neurosymbolicznymi, które usiłują połączyć zrozumiałość, efektywność i przewidywalność uczenia maszynowego opartego na logice (np. ILP) ze skalowalnością i elastycznością sieci neuronowych. W mojej prezentacji omówione będą wybrane metody obliczeń neurosymbolicznych (m.in. logiczne sieci tensorowe) oraz ich zalety i przykładowe zastosowania.
Serdecznie zapraszamy!