Harmonogram

26. maja
10:00 prof. dr hab. Elżbieta Muskat-Tabakowska, Uniwersytet Jagielloński
Wykład inauguracyjny – Widzieć, wiedziec, powiedzieć: percepcja, koncepcja, ekspresja
11:00 Maria Borkowska, Uniwersytet Warmińsko- Mazurski
Koncepcja rheomode Davida Bohma, czyli eksperyment z dynamizacją języka i myślenia

David Bohm twierdził, że podmiotowo- czasownikowo- dopełnieniowa struktura nowoczesnych języków powoduje postrzeganie rzeczywistości jako zbioru statycznych, oddzielnych części. Zdaniem filozofa należy poszukiwać języka, który przedstawiałby rzeczywistość zgodnie z jej naturą, czyli jako „płynny ruch istnienia jako całości”, innymi słowy – jako proces. Bohm zaproponował eksperyment z językiem. Eksperyment ten sprowadzał się do stworzenia nowego, dynamicznego trybu użycia języka. Ów tryb, nazwany przez filozofa rheomode polegał na tworzeniu zdań, w których podstawową rolę odgrywałby czasownik. Taka struktura zdań miałaby najlepiej odzwierciedlać dynamiczną strukturę rzeczywistości.

11:30 Joanna Myśliwiec, Uniwersytet Jagielloński
Rozmowa z maszyną – inteligencja konwersacyjna.
12:00 Przerwa na kawę
12:30 mgr inż. Aleksander Pohl, Akademia Górniczo-Hutnicza, Uniwersytet Jagielloński
Język, znaczenie i test Turinga

Teorie znaczenia formułowane na potrzeby językoznawstwa, filozofii i informatyki koncentrują się wokół podstawowej dychotomii symboli językowych: ich referencjalności, czyli własności odnoszenia się do przedmiotów pozajęzykowych oraz ich semantyczności, czyli własności wchodzenia w relacje semantyczne (takie jak: hiperonimia, holonimia, meronimia, etc.) z innymi symbolami językowymi. Nierzadko uwzględniają tylko jedną z tych własności. Np. w językoznawstwie strukturalnym znaczenie symbolu językowego jest wyznaczane wyłącznie przez wewnątrzjęzykowe relacje, w jakie wchodzi wybrany symbol z innymi symbolami; natomiast w pewnej wersji językoznawstwa kognitywnego, znaczenie symbolu (nieabstrakcyjnego) utożsamiane jest z prototypem, czyli pewną uogólnioną reprezentacją mentalną obiektów, do których symbol ten może się odnosić. Filozoficzna teoria znaczenia sformułowana przez Gotloba Fregego i Bertranda Russella, która utożsamia znaczenie nazw z wiązkami deskrypcji (eksplikując znaczenie jednych symboli, za pomocą innych symboli), może być interpretowana jako teoria wewnątrzjęzykowa, zaś przyczynowa teoria odniesienia Saula Kripkego – jako teoria „zakorzeniona” w rzeczywistości, lecz ignorująca semantyczność. W informatyce zaś, wśród systemów operujących znaczeniem możemy spotkać się z takimi, jak bazy wiedzy, w których znaczenie symboli opisane jest za pomocą zestawu relacji i reguł, odnoszących jedne symbole do innych oraz takimi, jak sieci neuronowe, które pozwalają na rozpoznawanie egzemplarzy pojęć na podstawie ich fizycznych (a nie symbolicznych) cech, które jednak również ignorują semantyczność.

W referacie poza krótkim omówieniem wspomnianych teorii znaczenia, zostaną przedstawione argumenty pokazujące, że teorie ignorujące referencjalność lub semantyczność są teoriami niadekwatnymi. Ponadto pokazane zostanie, że test Turinga, który może być postrzegany jako pewien test kompetencji językowej, ze względu na to, że zakłada nieadekwatną teorię znaczenia, może być traktowany wyłącznie jako ograniczona wersja „testu na inteligencję maszyn”. Zostanie również zaproponowany inny test, który wydaje się być bardziej adekwatny.

13:00 mgr Michał Tyburski
Logika niemonotoniczna i sztuczna inteligencja

W referacie przedstawię podstawy logiki niemonotonicznej oraz jej związki z tzw. logiczną sztuczną inteligencją. Wskażę na różnice, jakie zachodzą między logiką klasyczną a logiką niemonotoniczną. Omówię niektóre z problemów z zakresu sztucznej inteligencji, które dały początek logice niemonotonicznej.

13:30 mgr inż. Krystian Wojtkiewicz, Uniwerystet Opolski
Model przetwarzania języka naturalnego na język wewnętrzny konceptualnie obiektowo zorientowanego systemu sztucznej inteligencji (COOS)

Artykuł ten prezentuje schemat metody przetwarzania wypowiedzi języka naturalnego stosowanych w komunikacji z systemem sztucznej inteligencji COOS. Przedstawiono zależności pomiędzy wykorzystaniem bazy leksykalnej słów oraz odpowiednio z nią powiązanej bazy ontologicznej, a jednoznacznością przypisań wypowiedzi do ich znaczeń semantycznych. Ponadto przedstawiono w jaki sposób poszczególne etapy przetwarzania wypowiedzi mogą służyć wzbogacaniu wiedzy zapisanej w bazie wiedzy systemu.

14:00 Obiad
15:30 inż. Szymon Biały
Rozpoznawanie autora wypowiedzi

Niniejsza praca przedstawia system identyfikacji mówcy niezależny od wypowiadanego tekstu z wykorzystaniem liniowej kombinacji rozkładów normalnych (ang. Gaussian Mixture Models – GMM). Zbadany został wpływ doboru wektora cech oraz liczby rozkładów na zdolność rozpoznawania dla mowy czystej i zaszumionej. Zbadano wpływ szumów sztucznych: białego, różowego oraz brązowego, a także szumów środowiskowych na skuteczność rozpoznawania mówcy. Zaprojektowano i zweryfikowano wpływ użycia modułu wykrywania aktywności głosowej (ang. Voice Activity Detection – VAD) na efektywność rozpoznawania, przestawiono szczegółowe informacje dotyczące jego użycia i uczenia. Badania zostały przeprowadzone na 44 mówcach z korpusu polskiej intonacji PoInt. Wyniki eksperymentów zostały przedstawione i przedyskutowane. Uzyskano bezbłędne rozpoznawanie mówców dla mowy czystej oraz znaczną poprawę skuteczności rozpoznawania mówców z wykorzystaniem zaproponowanego modułu wykrywania aktywności głosowej dla przypadku mowy zaszumionej.

16:00 Łukasz Bandzarewicz, Akademia Górniczo-Hutnicza
Maszyny, które widzą

Celem referatu będzie elementarne wprowadzenie w problematykę komputerowych systemów wizyjnych (ang. Computer Vision) i rozpoznawania obrazów.

Komputerowe systemy wizyjne są niezbędne do automatyzacji wielu prac, ponieważ człowiek na odpowiednich stanowiskach pracy większość informacji pozyskuje właśnie za pomocą wzroku.

Przedstawione zostaną podstawowe metody przetwarzania, analizy i rozpoznawania obrazów cyfrowych. Omówione zostaną też główne problemy (i metody radzenia sobie z nimi), na które może natrafić projektant sztucznych systemów wizyjnych.

Jako przykład komputerowego systemu wizyjnego zostanie przedstawiony system do automatycznego odczytywania numerów tablic rejestracyjnych. Omówione zostaną zagadnienia związane z OCR (optyczne rozpoznawanie znaków). Przedstawione zostaną problemy związane z doborem architektury i uczeniem sieci neuronowych.

16:30 mgr Paweł Łupkowski, Uniwersytet im. A. Mickiewicza
W jakim sensie możemy mówić o adekwatności testu Turinga

Robert French wyróżnia w swojej pracy ``Subcogniton and the Limits of the Turing Test’’ dwie tezy testu Turinga: tezę filozoficzną mówiącą, że gra opisywana przez Turinga stanowi dobry test do badania obecności inteligencji i tezę pragmatyczną, zgodnie z którą odpowiednio zaprogramowany komputer może zdać test, który opisany jest przez tezę o teście Turinga. W swoim wystąpieniu wykorzystam to rozróżnienie aby pokazać, że dyskusje toczone wokół testu Turinga można podzielić ze względu na tezy TT wyróżnione przez Frencha i że z każdą z nich można powiązać inne rozumienie adekwatności propozycji A. M. Turinga. Będę również argumentował, że dwie intuicje adekwatności TT można (a nawet powinno się) rozpatrywać oddzielnie. Postaram się również wykazać, że bardzo często dyskusje związane z pierwszą tezą TT daleko odchodzą od zamierzeń Turinga i oryginalnego sformułowania jego propozycji.

17:00 dr Piotr Sobol – Kołodziejczyk, Uniwersytet Rzeszowski
O pewnej metodzie modelowania informacji rozmytych w systemach AI

Celem tego tekstu jest próba zarysowania pewnej koncepcji semantycznej mogącej mieć zastosowanie dla sztucznych systemów przetwarzających informacje. Proponowane podejście zawęża zakres badań nad sztuczną inteligencją do analiz systemów przetwarzania i rozumienia języka naturalnego. Zawężenie to wynika po pierwsze z tendencji badawczych współcześnie panujących w konstrukcji systemów AI, gdzie problem przetwarzania języka naturalnego stanowi jedno z centralnych zagadnień. Po drugie i ważniejsze, w ramach badań nad sztuczną inteligencją istnieje szeroko dyskutowany problem wyjaśnienia typu interakcji zachodzących pomiędzy syntaktycznymi składnikami systemu a zdolnością generowania semantyki przez ten system [por. Hardcastle 1995: 310-311]. Proponowane w literaturze przedmiotu rozwiązania tego problemu napotykają na trudność wyjaśnienia relacji zachodzących pomiędzy poziomem reguł obliczeniowych zaimplementowanych w systemie a możliwością reprezentowania stanów wewnętrznych systemu w postaci poprawnie zbudowanych zdań. Trudność ta wynika z założenia, że systemy przetwarzania języka naturalnego posiadają holistyczną strukturę. Mówiąc inaczej, badacze AI podejmujący zagadnienie przetwarzania i rozumienia języka naturalnego milcząco zakładają haugelandowski warunek mówiący, że: „Jeśli posiadamy dany system symboli wraz z ich interpretacjami, to znaczenie znaków będących przedmiotem wprowadzania, przechowywania i manipulacji ‘dba samo o siebie’ ” [Haugeland 1981: 24]. Założenie to prowadzi z kolei do przyjęcia kryterium semantycznej interpretowalności dla systemów przetwarzających informacje. Sedno tego kryterium, za Harnadem można przedstawić następująco:

Jeżeli systemy inteligentne są systemami symbolicznymi, to ich definicyjną cechą jest to, że manipulacje symbolami muszą być semantycznie interpretowane (...): wszystkie interpretacje symboli i manipulacje muszą sobie wzajemnie odpowiadać, jak ma to miejsce w arytmetyce na poziomie symboli indywidualnych, formuł oraz ciągów formuł. Zatem wszystkie interpretacje muszą mięć semantyczny sens tak w całości, jak i w części [Harnad 1995: 381].

Widać więc, że treść informacji dostarczanych do systemów AI może być, zgodnie z zarysowanym wyżej podejściem, traktowana wyłącznie wąsko. Takie postawienie sprawy prowadzi jednak do niemożności wyjaśnienia sposobu modyfikacji dostarczanych danych, eliminacji wypowiedzi wewnętrznie sprzecznych ze struktury systemu, czy zagadnienia wielorakiej realizacji tych samych własności semantycznych przez różne systemy AI.

W związku z powyższymi ustaleniami wydaje się, że próba rozwiązania problemu semantycznego dla sztucznych systemów przetwarzania języka naturalnego winna zasadzać się na korelacji eksternalistycznego programu badania umysłu z obliczeniowym sposobem modelowania własności poznawczych. Korelacja tego rodzaju jest możliwa dzięki przedefiniowaniu klasycznego pojęcia informacji za pomocą pewnej wersji logiki rozumowań domyślnych. Redefinicja pojęcia informacji stanowi tematykę pierwszej części tego tekstu. W części drugiej, na podstawie pewnego modelu logiki rozumowań domyślnych opisanej przez Malinowskiego [zob. Malinowski 1999, 2000], podejmę próbę sformułowania zarysu koncepcji semantycznej dla sztucznych systemów przetwarzających informacje.

17:30 Przerwa na kawę
18:00 prof. dr hab. Ryszard Tadeusiewicz, Akademia Górniczo-Hutnicza
Rozumienie rozumienia

Referat zawierać będzie dyskusję podstawowego pojęcia: automatycznego rozumienia, traktowanego początkowo w sposób bardzo ogólny, dla uporządkowania i zestawienia odpowiednich pojęć. W dalszej części referatu przedstawiona zostanie propozycja narzędzi do automatycznego rozumienia semantycznej treści obrazów medycznych. Mimo zawężenia analizy do klasy obrazów medycznych opracowane metody będą przedstawione w taki sposób, żeby możliwe było uzyskanie lepszej jakości form korzystania z informacji obrazowej w szerokim spektrum różnych zastosowań technik wchodzących w skład computer vision. Można wyrazić też nadzieję, że pokazując konkretny przykład, jak można przełamać barierę między formą i treścią obrazów, zachęcimy także kolejnych badaczy do poszukiwania drogi przełamywania podobnych barier istniejących w odniesieniu do innych sygnałów – na przykład geofizycznych w poszukiwaniu pod ziemią cennych surowców albo mechanicznych, służących do wykrywania zapowiedzi zbliżającej się awarii ważnego mechanizmu, na przykład silnika lotniczego.

Dostępna jest również dłuższa wersja streszczenia.

20:30 Spotkanie integracyjne w klubie RE
27. maja
09:00 dr Sebastian T. Kołodziejczyk, Uniwersytet Jagielloński
Protokonceptualne aspekty funkcjonowania umysłu
10:00 Błażej Skrzypulec, Uniwersytet Jagielloński
Kognitywistyka a zasada identyczności nieodróżnialnych

Wedle paradygmatu kognitywistycznego nasze poznanie świata zewnętrznego zapośredniczone jest w strukturach naszego umysłu. Świat nie jest dostępny bezpośrednio, a nasze struktury poznawcze nie są „przeźroczyste”, używając słów I. Kanta, rzeczy nie są nam dane „same w sobie”, mamy jedynie dostep do fenomenów, które powstają przy aktywnym udziale poznającego podmiotu. Czy opierając się na takich założeniach możemy rozumieć zasadę identyczności przedmiotów nieodróżnialnych na sposób czysto „ontologiczny” – uznając, iż przedmioty są identyczne gdy mają takie same własności, abstrahując zupełnie do podmiotu, który te własności mógłby postrzegać. Być może zasadę identyczności nieodróżnialnych należy interpretować w sposób „epistemologiczny”, twierdząc, że wszystkie własności mają charakter relacyjny w stosunku do poznającego podmiotu, a „być nieodróżnialnym” znaczy tyle co „nie być możliwym do odróżnienia przez poznający podmiot”. W referacie postaram się przedstawić konsekwencje takiego ujęcia dla klasycznych argumentów wysuwanych przeciwko prawdziwości zasady identyczności nieodróżnialnych (M. Black, M. Loux, A. Ayer, D. J. O’Connor )

10:30 Tomasz Konik, Uniwersytet Jagielloński
Dwa problemy u podstaw AI

W referacie chcę przedstawić i przedyskutować dwa problemy sięgające podstaw cognitive science i programu sztucznej inteligencji.

  1. W ostatniej dekadzie wytworzył się nurt myślowy postulujący wcielenie umysłu, tzn. ścisły, nierozerwalny związek ciała i umysłu oraz zależność sposobu funkcjonowania umysłu od struktury jego biologicznego podłoża. Jest to w znacznym stopniu nurt opozycyjny do cognitive science. Jak, w perspektywie owego nowego spojrzenia na umysł, myśleć o programie sztucznej inteligencji? Czy jest sens podejmować go na tym nowym gruncie? Jeśli tak, to w „standardowej” wersji, czy może konieczne będą przeformułowania?
  2. W dalszej części chcę się zająć oczekiwaniami, jakie wysuwamy wobec sztucznej inteligencji. Czy sztuczna inteligencja ma być odwzorowaniem inteligencji ludzkiej? Bez wątpienia takie intuicje stoją za testem Turinga (przy okazji przedyskutuję pewne propozycje wzmocnień dla tego testu). Czy jednak jest to jedyna możliwość? W jakim stopniu da się ją zrealizować?
11:00 dr Jerzy Pluta, Uniwersytet Warszawski
Informacja a intencjonalność

Punktem wyjścia rozważań jest pojęcie informacji w sensie potocznym oraz w sensie technicznym. Dokonuje się analizy głównych założeń ontologicznych leżących u podstaw tych pojęć. Na podstawie tej analizy konstruuje się pojęcie informacji będące zarówno eksplikacją sensu potocznego, jak i uogólnieniem sensu technicznego. Pokazuje się związki zachodzące między tak rozumianą informacją a intencjonalnością. Całe rozważanie ma służyć za przykład heurystycznej użyteczności łączenia dwóch perspektyw metodologicznych: tej, właściwej filozofii z tą, właściwą naukom stosowanym (w szczególności: kognitywistyce).

11:30 Przerwa na kawę
12:00 Kamil Sokołowski, Uniwersytet Jagielloński
Czy wyniki Godla mówią coś o naturze umysłu? J. M. Schins versus P. S. Churchland

Roger Penrose w „Nowym umyśle cesarza” wskazał wnioski dotyczące natury ludzkiego umysłu płynące z wyników Gödla. Juleon M. Schins oraz Patricia S. Churchland w odmienny sposób oceniają prawomocność tych wniosków. W trakcie wystąpienia przedstawię obydwie oceny i przemawiające za nimi argumenty oraz zbadam ich konkluzywność.

  1. Patricia S. Churchland: “Gaps in Penrose’s Toilings”
  2. Juleon M. Schins: “Empirical Evidence for the Non-Material Nature of Consciousness”
12:30 mgr Marcin Wróbel
Rola eksperymentu myślowego na przykładzie argumentu z Mary

Jedną z podstawowych form czynnego udziału filozofów w badaniach nad zagadnieniami umysłu jest konstruowanie coraz to nowych eksperymentów myślowych, które mają jakoby rzucać nowe światło na stare problemy. Frank Jackson powołał do życia tytułową Mary w roku 1982. Jest ona biegłą neurofizjolożką, która wie wszystko o postrzeganiu kolorów lecz przez całe swoje życie przebywała w czarno-białym środowisku. Z tego to powodu subiektywne wrażenie koloru innego niż odcienie szarości nie jest jej znane. Jej twórca zadał interesujące pytanie – co stanie się, gdy Mary opuści swoje laboratorium i zacznie odkrywać kolorowy świat. Czy odczuje zupełnie nowe wrażenia barw, czy też z racji tego, iż dysponuje pełną neurofizjologiczną wiedzą o widzeniu barw wrażenia te jednak będą jakoś znane. Wątpliwości Jacksona koncentrują się wokół qualiów, treści umysłowych, a także mentalnej reprezentacji świata zewnętrznego i wzajemnych relacji między nimi. Co to właściwie znaczy wiedzieć coś? Czy oznacza to posiadanie każdorazowo odpowiedniej umysłowej reprezentacji środowiska? Przecież Mary nie mogła przed wyjściem jej posiadać? Czy zatem jej wiedza była o widzeniu kolorów była kompletna?

Neurolodzy i neurobiolodzy od samego początku wyrażali wiele wątpliwości na temat poprawności konstrukcji tego argumentu a także jego przydatności, brak mu bowiem – w ich opinii – jakichkolwiek sensownych empirycznych konsekwencji. Chciałbym w swoim wystąpieniu przyjrzeć się argumentowi z Mary, skonfrontować go z neurobiologicznymi podstawami procesu widzenia barw ze szczególnym uwzględnieniem chorych na achromatopsję – agnozję kolorów. Pozwoli to zrewidować empiryczną adekwatność tego eksperymentu myślowego, a także przyjrzeć się roli i wadze tego typu hipotetycznych konstrukcji w badaniach dotyczących wzajemnych relacji pomiędzy ciałem, mózgiem i umysłem.

13:00 mgr Krzysztof Chodasewicz, Uniwersytet Wrocławski
Empiryczne racje argumentu z wielorakiej realizacji
Argument z wielorakiej realizacji (realizowalności) należy do najbardziej znanych argumentów przeciw redukcjonizmowi we współczesnej filozofii umysłu. Głosi on, że nie można wyznaczyć jedno-jednoznacznej relacji przyporządkowującej stany mentalne fizycznym (neuronalnym), ponieważ określone stany mentalne mogą być realizowane przez różne fizyczne struktury. Wśród racji dla przyjęcia tego argumentu najczęściej wysuwana jest logiczna możliwość istnienia świadomych maszyn lub organizmów pozaziemskich o różnej od ludzkiej biochemii. Spekulacje te wzmacnia się dwoma tezami, o których sądzi się, że mają podstawy empiryczne:
  1. tezą o neuroplastyczności mózgu,
  2. tezą o konwergencji świadomości.

Celem niniejszego referatu jest analiza drugiej z wymienionych tez. Jej podstawowym zadaniem będzie odpowiedź na trzy pytania:

  1. czy teza o konwergencji świadomości ma rzeczywiście empiryczny charakter?
  2. jaka jest natura wspierających ją danych?
  3. czy w ich świetle argument z wielorakiej realizacji może być uznany za silny argument przeciw redukcjonizmowi?
13:30 Obiad
15:00 dr Eligiusz Wronka, Uniwersytet Jagielloński
O inteligentnych cechach systemu nerwowego – analiza krytyczna teorii i wyników badań
16:00 Agnieszka Krzyżanowska i Dariusz Zapała, Katolicki Uniwersytet Lubelski
Systemy X i C – neurokognitywny model percepcji zjawisk społecznych

Neurokognitywistyka społeczna (SCN- Social Cognitive Neuroscience) to nowa gałąź wiedzy, która czerpiąc z narzędzi neurobiologii szuka biologicznych podstaw zjawisk z zakresu psychologii społecznej, ekonomii, czy też nauk politycznych. Jednym z głównych obszarów jej zainteresowań jest próba identyfikacji neuronalnego podłoża mechanizmów odpowiedzialnych za poznanie społeczne i zdolność przewidywania stanów mentalnych innych osób.

Do głównych osiągnięć na polu SCN, należy opracowanie w ostatnich latach przez Matthew D. Libermana i współpracowników podwójnego modelu poznania społecznego, tzw. systemów X i C. Model ten zakłada istnienie dwóch, względnie niezależnych, mechanizmów odpowiedzialnych za: automatyczne i kontrolowane odbieranie oraz analizowanie zjawisk społecznych. Hipoteza ta zyskuje obecnie potwierdzenie w wielu badaniach z użyciem metod neuroobrazowania (fMRI), które pozwalają połączyć elementy procesów poznawczych, składających się na konstrukt, z konkretnymi obszarami mózgu. Systemy X i C rozpatrywane są również w perspektywie ewolucji umysłu, z uwagi na wchodzenie w ich skład struktur o zróżnicowanych funkcjach i pochodzeniu filogenetycznym.

W naszym referacie przedstawimy założenia teoretyczne systemów X i C, zasady funkcjonowania tych mechanizmów w świetle ewolucji umysłu, a także przegląd współczesnych oraz perspektywy przyszłych badań nad powyższym zagadnieniem.

16:30 mgr Kamila Dobrenko, Uniwersytet Warszawski
W poszukiwaniu dyspozycyjnych uwarunkowań dekodowania utajonych informacji słownych

Rozważania nad naturą poznania, trwające na gruncie filozofii od czasów starożytnych (Ajdukiewicz, 2004; Hempel, 2001; Kuhn, 2001) zyskały w ostatnim ćwierćwieczu ważne przesłanki za sprawą odkryć neurobiologii (Gregory i Dolman; 2002) oraz badań psychologicznych nad nieświadomym przetwarzaniem informacji. Przedmiotem zainteresowania prezentowanych tutaj badań są zjawiska związane z intuicją, rozumianą jako zdolność do efektywnego korzystania z subtelnych sygnałów płynących ze środowiska zewnętrznego i wewnętrznego (Kolańczyk, 2004, Nęcka, 2002).

Bodźce dekodowane są na różnych piętra układu nerwowego (Damasio 2000) i tylko niewielka ich część odzwierciedlana jest w świadomości (Dobroczyński 2001, Wróbel 2001). Dzięki połączeniom neuronalnym możliwe stają się wzajemne interakcje pomiędzy procesami zachodzącymi na różnych piętrach układu nerwowego (Kądzielawa 2002; Jarymowicz i Ohme 2002; Szulc 1981). Ludzie są zdolni do wykorzystywania na poziomie funkcjonowania jawnego informacji dostępnych im tylko na poziomie nieświadomym – nawet jeśli są to informacje o dużym stopniu złożoności (Lamme 2003, Myers 2004, Underwood 2004).

Celem programu badawczego było znalezienie powiązań pomiędzy dwoma poziomami przetwarzania informacji (świadomym i nieświadomym). Punktem wyjścia była idea skomplikowanego przetwarzania informacji na poziomie nieświadomym oraz różnic międzyosobowych występujących w ich zakresie. Były rozpatrywane trzy atrybuty słów:

  1. sensoryczny (graficzny) zapis słowa – umożliwiający rozpoznawanie sensoryczne,
  2. afektywny – skojarzony zarówno ze znakiem, jak i znaczeniem słowa,
  3. semantyczny – wymagający zaangażowania systemu pojęciowego.
Ponadto badani wykonywali szereg zadań na poziomie jawnym sprawdzających ich zdolności instrumentalne w obszarze jawnego przetwarzania informacji.

Przebadano 180 osób (studentów Uniwersytetu Warszawskiego). Zadaniem badanych dotyczącym poziomu utajonego było wykorzystanie w zadaniu podanej informacji (prezentowanej przez 40 milisekund). Instrukcja mówiła, że na ekranie będzie się pojawiać pewna informacja, przez tak krótki moment, że badany może jej nawet nie zauważyć. Zadanie polegało na wyborze jednego z dwóch widzianych na ekranie słów – tego, które zdaniem badanych lepiej pasuje do wcześniej informacji. Wyniki wykazały między innymi, że

  1. uczestnicy dobrze radzące sobie z jawnymi zadaniami semantycznymi uzyskały wyższe wskaźniki trafności rozpoznawania utajonych słów,
  2. trafność rozpoznawania była istotnie wyższa gdy utajone słowa miały konotacje pozytywne – w warunkach z poprzedzaniem negatywnym średni wskaźnik efektywności nie był wyższy od poziomu przypadku.
17:00 Marta Siedlecka i Dariusz Asanowicz, Uniwersytet Jagielloński
Czy sztucznej inteligencji potrzebna jest intuicja? Uczenie mimowolne u ludzi i w sieciach koneksjonistycznych

Wyniki wieloletnich badań nad sztuczną inteligencją ujawniły zarówno jej niezwykłe możliwości, jak również spore ograniczenia. Pomimo możliwości obliczeniowych wielokrotnie przewyższających zdolności ludzkie, systemom komputerowym ciągle brakuje czegoś, co pozwoliłoby im poradzić sobie z wykonaniem niektórych zadań, które nie sprawiają żadnego problemu zwykłemu człowiekowi.

Ludzka inteligencja to nie tylko umiejętność wykonywania złożonych operacji formalnych, ale również zdolność gromadzenia i wykorzystywania w sposób zupełnie automatyczny i intuicyjny ogromnej ilości różnego typu informacji o świecie. Sądy intuicyjne powstają w wyniku automatycznej i nieświadomej aktywacji oraz integracji przechowywanej w pamięci ukrytej wiedzy (tacit knowledge). Poznawczym substratem intuicji są mechanizmy uczenia mimowolnego (implicit learning), dzięki którym nabywamy abstrakcyjną i jednocześnie nieświadomą wiedzę o złożonej strukturze środowiska.

Intuicja wydawała się zawsze zdolnością typowo ludzką, czymś co może odróżniać człowieka od maszyny. Jednak prowadzone w ostatnich latach badania wykorzystujące techniki modelowania procesów uczenia mimowolnego w sieciach neuronowych wskazują na nowe możliwości sztucznych systemów. Wyniki tych badań przynoszą zarówno kolejne, cenne informacje na temat procesów myślenia intuicyjnego u ludzi, jak również pozwalają dostrzec nowe możliwości zastosowania podobnych mechanizmów podczas projektowania inteligentnych systemów komputerowych.

17:30 Przerwa na kawę
18:00 Urszula Mihułowicz, Uniwersytet Jagielloński
Czy synestezja może być przydatna sztucznemu umysłowi?

Dokładny mechanizm tego dość rzadkiego zjawiska polegającego na łączeniu wrażeń odbieranych przez różne zmysły nie jest jeszcze dokładnie zbadany. Obecność wrażeń synestetycznych u osób z uszkodzeniami w okolicach hipokampa, a nie będących synestetykami, zdaje się wskazywać na rolę tych rejonów w synestezji. Znamienne wydaje się też, że synestezja jest procesem silnie emocjonalnym, co potwierdzałoby jej związek z szeroko pojętym układem limbicznym. Fakt, że zdolności synestetyczne u osób dorosłych wiążą się bardzo często z lepszymi zdolnościami pamięciowymi wydaje się natomiast zrozumiały w kontekście aktualnej wiedzy psychologicznej na temat roli emocji w procesach uwagowych i pamięci.

Sztuczne sieci neuronowe nie są, i nawet gdyby dotychczasowa wiedza na temat działania ludzkiego mózgu na to pozwalała, z wielu powodów nie powinny być całkowicie wzorowane na żywym mózgu. Trudno na razie oczekiwać, by sztuczna sieć neuronowa wykorzystywała emocje do określania wag poszczególnych połączeń. Dokładniejsze zbadanie mechanizmu synestezji, pomocnego w organizacji wiedzy ludzkiego mózgu mogłoby dostarczyć cennych wskazówek dla skuteczniejszej organizacji wiedzy sieci sztucznych. Dodatkowo ciekawe wydaje się w kontekście modelowania sztucznych sieci neuronowych, że aktywacja neuronów oraz przepływ krwi w odpowiednich obszarach mózgu jest u synestetyków niższa niż w grupie kontrolnej. Fakt ten może mieć bardzo ciekawe implikacje dla działania szczególnie tych sieci, które zakończyły już proces uczenia.

18:30 mgr Agnieszka Pluta, Uniwersytet Warszawski
Rola języka w teorii umysłu. Czy zdolność do rozumienia stanów mentalnych innych osób jest zależna od języka?

Teoria umysłu (theory of mind) oznacza zdolność do przypisywania ludziom stanów umysłowych w celu wyjaśnienia i przewidywania ich zachowania. Jest ona traktowana jako kluczowy element warunkujący wykształcenie się percepcji społecznej postrzeganej jako atrybut ludzkiego funkcjonowania. ToM rozwija się w sposób naturalny, przechodząc przez ściśle określone fazy. Badania z zakresu psychologii rozwojowej, psycholingwistyki oraz neuropsychologii sugerują, że ważną zdolnością warunkującą ToM jest kompetencja językowa, lecz nadal nie jest znany kierunek tej zależności. Część naukowców zajmujących się tą problematyką wskazuje, że wykształcenie się języka jest warunkiem koniecznym dla posługiwania się teorią umysłu, ponieważ prawidłowe posługiwanie się metajęzykiem odnoszącym do stanów mentalnych jest konieczne do myślenia w ich kategoriach. Inni zaś sugerują, że sprawne posługiwanie się ToM wyprzedza pojawienie się kompetencji językowej oraz pragmatycznej definiowanej jako wiedza i umiejętność dotycząca społecznie adekwatnych zasad użycia form językowych. Powstaje jednak pytanie, czy w przypadku wtórnego zaburzenia umiejętności posługiwania się językiem będą obserwowalne wtórne deficyty w zakresie ToM. Na to pytanie odpowiedzi udziela neuropsychologia oraz badania nad pacjentami z uszkodzonym mózgiem.

Podczas wystąpienia autorka przedstawi najnowsze wyniki badań dotyczące relacji języka oraz teorii umysłu. Dyskusja będzie łączyć perspektywę neuropsychologii, psychologii rozwojowej oraz lingwistyki.

19:00 Zakończenie konferencji