Przejdź do treści

Tematy badawcze

DYSCYPLINA – INFORMATYKA TECHNICZNA I TELEKOMUNIKACJA

I. Poprawa Netflixa dla starszych użytkowników: Projektowanie interakcji człowiek-AI w interfejsach rekomendacyjnych typu Multi-List, uwzględniających ograniczenia poznawcze

Zespół promotorski

prof. dr hab. Adam Wierzbicki, prof. dr hab. Grzegorz Sędek (Uniwersytet SWPS), dr Kinga Skorupska

Osoby kontaktowe

prof. dr hab. Adam Wierzbicki – adamw [at] pjwstk.edu.pl

Opis problemu

Interfejsy rekomendacyjne typu Multi-List (MLRIs) są szeroko stosowane na platformach strumieniowych (takich jak Netflix) oraz w aplikacjach e-commerce na urządzeniach mobilnych [1,2]. Służą do wyświetlania wyników algorytmów rekomendacyjnych, które są trenowane na podstawie profili użytkowników oraz ich wyborów.

Badania nad systemami rekomendacyjnymi zazwyczaj traktują wybory użytkowników dokonane w MLRIs jako rzeczywistą podstawę (ground truth) wykorzystywaną do nauki i oceny algorytmów rekomendacyjnych. Systemy rekomendacyjne oceniane są także za pomocą subiektywnej użyteczności, co niestety uniemożliwia uwzględnienie wpływu indywidualnych cech użytkowników na ich wybory i ich użyteczność.

W rezultacie, ani algorytmy rekomendacyjne, ani projektowanie MLRIs nie uwzględniają ograniczeń poznawczych użytkowników. Na przykład starsi użytkownicy często mają ograniczoną pamięć roboczą, co prowadzi do suboptymalnych wyborów [3], a także skrócony czas koncentracji uwagi lub zwiększoną potrzebę zamykania myśli, co prowadzi do zawężenia zbioru możliwych wyborów. Ograniczenia poznawcze wpływają na użyteczność wyborów użytkowników i ich interakcję z MLRIs, a tym samym na jakość danych wykorzystywanych do trenowania algorytmów rekomendacyjnych.

Podstawowym założeniem tego projektu badawczego jest lepsze zrozumienie preferencji użytkowników, wykorzystując metody uzyskiwania preferencji oparte na dostępnych informacjach o polecanych produktach (np. filmach) oraz na cechach ukrytych. Na podstawie preferencji użytkowników możemy skonstruować funkcję użyteczności dla każdego użytkownika. Funkcje użyteczności mogą być wykorzystane do rozwiązania problemu zimnego startu w systemach rekomendacyjnych, ponieważ są dostępne po uzyskaniu preferencji, zanim system uzyska informacje o wyborach użytkownika. Jednakże, będziemy wykorzystywać spersonalizowane funkcje użyteczności użytkownika do oceny jego wyborów w MLRI, uwzględniając indywidualne cechy użytkownika, takie jak wiek czy zdolności poznawcze. Stawiamy hipotezę, że użytkownicy z ograniczeniami poznawczymi będą mieli niższą użyteczność swoich wyborów w MLRI.

Problem badawczy polega na zaprojektowaniu interakcji człowiek-AI – na przykład za pomocą chatbota – która poprawiłaby użyteczność wyborów użytkownika w MLRI. Chatbot mógłby na przykład pełnić rolę cyfrowego „nudge” lub agenta rekomendacyjnego, który interweniowałby, gdy interakcja użytkownika z MLRI prowadzi do gorszych wyborów.
Częścią problemu badawczego jest również przeprojektowanie algorytmów rekomendacyjnych, aby mogły uwzględniać ograniczenia poznawcze użytkownika i wspierały lepsze wybory użytkowników w MLRI.

Bibliografia

Loepp, B. and Ziegler, J., 2023. How Users Ride the Carousel: Exploring the Design of Multi-List Recommender Interfaces From a User Perspective. In: Proc. 17th ACM Conf. on Recommender Syst., pp.1090-1095.

Ferrari Dacrema, M., Felicioni, N. and Cremonesi, P., 2022. Offline Evaluation of Recommender Systems in a User Interface With Multiple Carousels. Front. Big Data, 5, 910030.

Pawłowska, J., Rydzewska, K., & Wierzbicki, A. (2023). Using cognitive models to understand and counteract the effect of self-induced bias on recommendation algorithms. Journal of Artificial Intelligence and Soft Computing Research, 13(2), 73-94.

II. Złagodzenie lęku przed programowaniem u studentów: Projektowanie interakcji człowiek-AI w nauczaniu programowania oraz walka z lękiem przed programowaniem i intelektualną bezradnością studentów

Zespół promotorski

prof. dr hab. Adam Wierzbicki, dr Klara Rydzewska (Uniwersytet SWPS), dr Kinga Skorupska

Osoby kontaktowe

prof. dr hab. Adam Wierzbicki – adamw [at] pjwstk.edu.pl, dr Kinga Skorupska – skorupska [at] pjwstk.edu.pl

Opis problemu

Lęk przed programowaniem i intelektualna bezradność stanowią bariery, które negatywnie wpływają na wyniki, zaangażowanie i ogólną pewność siebie studentów podczas nauki programowania. Chociaż opracowano i przetestowano inteligentne systemy tutoringowe (ITS), które wspierają studentów w nauce programowania, koncentrują się one głównie na pomocy w rozwiązywaniu problemów, a nie na radzeniu sobie z wyzwaniami emocjonalnymi i poznawczymi, z którymi mogą się zmagać studenci.

Celem tego badania jest zaprojektowanie i ocena systemu interakcji człowiek-AI, który wspiera studentów w przezwyciężaniu lęku przed programowaniem oraz intelektualnej bezradności. Korzystając z walidowanych skal psychologicznych, projekt zmierzy poziom lęku przed programowaniem i intelektualnej bezradności wśród studentów uczestniczących w kursach programowania. Wyniki tych pomiarów będą skorelowane z wynikami studentów w ITS dla programowania, dostarczając wglądu w zależność między barierami emocjonalnymi a wynikami nauczania.

Kluczowym elementem badania jest rozwój agenta konwersacyjnego, zaprojektowanego nie tylko do udzielania wskazówek technicznych, ale także wsparcia emocjonalnego i poznawczego. Agent ten będzie pełnił rolę spersonalizowanego narzędzia wsparcia, które rozpoznaje oznaki frustracji, oferuje adaptacyjne porady programistyczne oraz wprowadza funkcje mające na celu poprawę nastroju i motywacji studentów. Jego skuteczność będzie testowana w ramach kontrolowanych, losowych eksperymentów z udziałem studentów programowania, mierząc jego wpływ na lęk przed programowaniem, intelektualną bezradność oraz ogólne wyniki nauczania.

Integrując techniki z zakresu interakcji człowiek-komputer, psychologii oraz AI wspomaganego nauczania, projekt ten ma na celu poprawę doświadczenia edukacyjnego studentów programowania. Wyniki tych badań przyczynią się do projektowania bardziej efektywnych narzędzi wspomagających naukę opartej na sztucznej inteligencji oraz pomogą w opracowywaniu najlepszych praktyk w redukcji lęku i wspieraniu odporności w edukacji informatycznej.

Bibliografia

Yildirim, O. G., & Ozdener, N. (2022). The Development and Validation of the Programming Anxiety Scale. International Journal of Computer Science Education in Schools, 5(3), n3.

Peng, W., Qin, Z., Hu, Y., Xie, Y., & Li, Y. (2023). Fado: Feedback-aware double controlling network for emotional support conversation. Knowledge-Based Systems, 264, 110340.

III. Stwórz test dla każdej umiejętności: Generowanie pytań na podstawie treści kursów akademickich w celu ćwiczenia i weryfikacji pożądanych umiejętności ICT

Zespół promotorski

prof. dr hab. Adam Wierzbicki, prof. dr hab. Izabela Grabowska (Akademia Leona Koźmińskiego), dr Pavel Savov

Osoby kontaktowe

prof. dr hab. Adam Wierzbicki – adamw [at] pjwstk.edu.pl

Opis problemu

Szybko ewoluujący rynek pracy w dziedzinie technologii informacyjno-komunikacyjnych (ICT) wymaga pracowników wyposażonych zarówno w tradycyjne, jak i nowoczesne umiejętności. Ramy ESCO (Europejski Katalog Umiejętności, Kompetencji, Kwalifikacji i Zawodów) stanowią kompleksową klasyfikację umiejętności i kompetencji wymaganych w różnych sektorach, jednak dopasowanie tych umiejętności do wyników nauczania na poziomie akademickim pozostaje wyzwaniem.

Celem tego projektu badawczego jest wypełnienie luki między klasyfikacją umiejętności ESCO a wynikami kursów akademickich poprzez mapowanie umiejętności ICT zdefiniowanych przez ESCO na cele nauczania poszczególnych kursów akademickich. Dzięki temu projekt ma na celu zapewnienie zgodności programów edukacyjnych z wymaganiami branżowymi, co w konsekwencji ma zwiększyć zatrudnialność absolwentów.

Kluczowym elementem badania jest automatyczne generowanie testów kompetencyjnych, mających na celu ocenę umiejętności teoretycznych, praktycznych oraz wyższych umiejętności poznawczych na różnych poziomach taksonomii Blooma. Obejmuje to myślenie krytyczne i twórcze, które są integralnymi elementami kompetencji ICT. Wykorzystując odpowiednią literaturę kursową i duże modele językowe, projekt będzie generować pytania i odpowiadające im odpowiedzi, dostosowane do efektywnej oceny tych umiejętności.

Projekt będzie również badał automatyczną weryfikację wygenerowanych pytań i odpowiedzi, naśladując działanie ustalonych metryk, takich jak TruthfulQA. Będzie to obejmować stworzenie zbioru pytań i odpowiedzi ręcznie weryfikowanych przez ekspertów przedmiotowych oraz porównanie z ustalonymi skalami pytań, zapewniając metodologiczną rzetelność procesów generowania pytań. Zweryfikowane pytania będą następnie wykorzystywane do oceny kompetencji kandydatów na różne zawody ICT, poprzez mapowanie profili zawodowych CEDEFOP do umiejętności ESCO.

Ukończenie ocen będzie potwierdzane mikrocertyfikatami, które będą poświadczać biegłość kandydata w określonych umiejętnościach lub zestawach umiejętności istotnych dla ról zawodowych. Poprzez integrację zgromadzonych danych dotyczących mapowania zawodów na umiejętności ESCO i ich zgodności z danymi o wynikach nauczania, projekt umożliwi porównawczą analizę profili akademickich i wymagań zawodowych. Takie wnioski pomogą w udoskonaleniu ofert edukacyjnych i przyczynią się do stworzenia elastycznej ramy, która dostosowuje edukację do potrzeb rynku pracy.

Bibliografia

Ward, R., Phillips, O., Bowers, D., Crick, T., Davenport, J. H., Hanna, P., … & Prickett, T. (2021, April). Towards a 21st century personalised learning skills taxonomy. In 2021 IEEE Global Engineering Education Conference (EDUCON) (pp. 344-354). IEEE.

Pan, X., van Ossenbruggen, J., de Boer, V., & Huang, Z. (2024). A RAG Approach for Generating Competency Questions in Ontology Engineering. arXiv e-prints, arXiv-2409.

Di Nuzzo, D., Vakaj, E., Saadany, H., Grishti, E., & Mihindukulasooriya, N. (2024, September). Automated Generation of Competency Questions Using Large Language Models and Knowledge Graphs. In SEMANTiCS Conference.

Hadzhikoleva, S., Rachovski, T., Ivanov, I., Hadzhikolev, E., & Dimitrov, G. (2024). Automated Test Creation Using Large Language Models: A Practical Application. Applied Sciences, 14(19), 9125.

Cheng, Z., Xu, J., & Jin, H. (2024). Treequestion: Assessing conceptual learning outcomes with llm-generated multiple-choice questions. Proceedings of the ACM on Human-Computer Interaction, 8(CSCW2), 1-29.

Biancini, G., Ferrato, A., & Limongelli, C. (2024, June). Multiple-choice question generation using large language models: Methodology and educator insights. In Adjunct Proceedings of the 32nd ACM Conference on User Modeling, Adaptation and Personalization (pp. 584-590).

Sundar, K., Manohar, E., Vijay, K., & Prakash, S. (2024, October). Revolutionizing Assessment: AI-Powered Evaluation with RAG and LLM Technologies. In 2024 2nd International Conference on Self Sustainable Artificial Intelligence Systems (ICSSAS) (pp. 43-48). IEEE.

CEDEFOP mapping of occupations to ESCO skills, https://www.cedefop.europa.eu/files/4172_en.pdf, https://www.cedefop.europa.eu/files/using_learning_outcomes_to_compare_the_profile_of_vet_qualifications_-_a_global_approach_cedefop_unesco_november_2017.pdf 

ESCO skill classification, https://esco.ec.europa.eu/en/classification 

IV. Zwalczanie dezinformacji w mediach społecznościowych: Agenci konwersacyjni wspierający wykrywanie i obalanie dezinformacji [w mediach społecznościowych i platformach wiadomości błyskawicznych]

Zespół promotorski

prof. dr hab. Adam Wierzbicki, prof. Jahna Otterbacher (Open University of Cyprus), dr Kinga Skorupska

Osoby kontaktowe

prof. dr hab. Adam Wierzbicki – adamw [at] pjwstk.edu.pl

Opis problemu

Wzrost dezinformacji online stanowi poważne zagrożenie dla zaufania publicznego, instytucji demokratycznych i spójności społecznej. Europejskie agencje oraz organizacje zajmujące się weryfikowaniem faktów, takie jak EUvsDisinfo, aktywnie pracują nad przeciwdziałaniem dezinformacji, jednak skalowalne rozwiązania oparte na sztucznej inteligencji wciąż stanowią wyzwanie. Istniejące podejścia do wykrywania dezinformacji często opierają się na ręcznie przygotowanych zestawach danych i heurystykach opartych na regułach, które mają trudności z nadążaniem za ewoluującymi taktykami dezinformacyjnymi.

Celem tego projektu badawczego jest opracowanie ramy opartej na sztucznej inteligencji do wykrywania i łagodzenia dezinformacji, wykorzystując uczenie maszynowe, strategie komunikacji perswazyjnej oraz eksperymentalną walidację w rzeczywistych warunkach. Pierwszym celem jest zbudowanie usystematyzowanej bazy danych dezinformacji, identyfikującej kluczowe cechy językowe, strukturalne i kontekstowe, które charakteryzują dezinformację. Baza ta posłuży jako fundament do identyfikowania narracji dezinformacyjnych, oceny intencji oraz wykrywania manipulacyjnych technik, takich jak ramowanie emocjonalne, fałszywa przyczynowość czy selektywne pomijanie faktów.

Oprócz wykrywania, projekt ten zbada strategie interwencji, które ostrzegają użytkowników przed dezinformacją w mediach społecznościowych, szczególnie w kontekstach wiadomości błyskawicznych (np. Discord czy Facebook Messenger), i oferują perswazyjne kontranarracje. Wiadomości generowane przez sztuczną inteligencję będą zaprojektowane tak, aby wyjaśnić, dlaczego dana informacja jest myląca, obalić fałszywe twierdzenia i przekonać użytkowników do odrzucenia dezinformacji. Skuteczność tych interwencji będzie testowana w ramach kontrolowanych eksperymentów oraz wdrożeń w rzeczywistych warunkach, na przykład w ramach kursu dotyczącego wykrywania dezinformacji, mierząc ich wpływ na zaangażowanie użytkowników, zaufanie oraz podatność na dezinformację.

Aby osiągnąć te cele, projekt wykorzysta połączenie uczenia maszynowego, przetwarzania języka naturalnego oraz metod oceny zorientowanych na użytkownika. Będzie również badał, w jaki sposób wyjaśnialna sztuczna inteligencja może poprawić zaufanie do systemów wykrywania dezinformacji oraz jak spersonalizowane interwencje mogą zwiększyć zaufanie użytkowników. Badania przyczynią się zarówno do praktycznych zastosowań w wykrywaniu dezinformacji, jak i do stworzenia teoretycznych ram dla korekcji dezinformacji, wspierając ostatecznie polityków, edukatorów i platformy technologiczne w walce z dezinformacją online.

Bibliografia

João A. Leite, Olesya Razuvayevskaya, Kalina Bontcheva, and Carolina Scarton. 2024. EUvsDisinfo: A Dataset for Multilingual Detection of Pro-Kremlin Disinformation in News Articles. In Proceedings of the 33rd ACM International Conference on Information and Knowledge Management (CIKM ’24). Association for Computing Machinery, New York, NY, USA, 5380–5384. https://doi.org/10.1145/3627673.3679167

V. Kiedy ufamy sztucznej inteligencji? Zaufanie, delegowanie i wpływ społeczny w systemach wspomagania decyzji opartych na sztucznej inteligencji. Badanie dynamiki behawioralnej

Zespół promotorski

prof. dr hab. Adam Wierzbicki, dr. Styliani Kleanthous (Open University of Cyprus)

Osoby kontaktowe

prof. dr hab. Adam Wierzbicki – adamw [at] pjwstk.edu.pl

Opis problemu

Celem tego badania jest zrozumienie, w jaki sposób ludzie współpracują z systemami wspomagania decyzji (DSS) opartymi na sztucznej inteligencji (AI) w zadaniach podejmowania decyzji w trybie współpracy. Badanie koncentruje się na następujących kwestiach:

  1. Dynamika zaufania: Kiedy ludzie ufają rekomendacjom AI bardziej niż własnemu osądowi?
  2. Delegowanie zadań: Kiedy i dlaczego ludzie przekazują decyzje do AI?
  3. Wpływ społeczny i adaptacja behawioralna: Jak AI wpływa na decyzje ludzkie i dynamikę zespołową?

Współpraca człowiek-AI (HAI) coraz bardziej kształtuje procesy podejmowania decyzji w takich dziedzinach jak opieka zdrowotna, finanse czy logistyka. Systemy wspomagania decyzji (DSS) wzbogacone o możliwości AI mają na celu wspomaganie ludzkiego osądu poprzez dostarczanie rekomendacji opartych na danych. Jednak skuteczność tych systemów zależy od tego, jak użytkownicy postrzegają, ufają i wchodzą w interakcję z poradami generowanymi przez AI. Dotychczasowe badania wykazały, że zaufanie do AI zależy od przewidywalności, niezawodności i przejrzystości [7], a jednostki często wykazują tendencję do albo błędnego zaufania (gdzie nadmiernie polegają na AI), albo odporności na algorytmy (gdzie odrzucają rekomendacje AI po napotkaniu błędów) [9]. Aby zapewnić optymalną kalibrację zaufania, istotne jest zbadanie warunków, w jakich ludzie akceptują lub odrzucają decyzje AI, szczególnie w kontekstach o dużym ryzyku lub niepewności [2].

Ponadto kluczowym wyzwaniem w interakcjach HAI jest delegowanie zadań — ustalenie, kiedy i dlaczego ludzie przekazują kontrolę systemom AI. Teorie socjopsychologiczne sugerują, że ludzie delegują zadania lub polegają na AI w określonych warunkach. Teoria obciążenia poznawczego [10] sugeruje, że ludzie chętniej polegają na AI, gdy doświadczają dużego obciążenia poznawczego, na przykład podczas podejmowania decyzji w sytuacjach wymagających szybkiego działania lub przy złożonych zadaniach decyzyjnych [6]. Jednak delegowanie zadań nie jest wyłącznie napędzane przez ograniczenia poznawcze. Na przykład, Teoria porównań społecznych [5] wskazuje, że jednostki dostosowują swoje decyzje w oparciu o rekomendacje AI, szczególnie gdy brakuje im pewności co do własnego osądu.

Zgodnie z Teorią wpływu społecznego [3], AI może działać jako agent perswazyjny, kształtując decyzje użytkownika poprzez błąd autorytetu (ufanie AI jako ekspertowi) lub heurystykę konsensusu (dostosowywanie się do rekomendacji AI, gdy jest ono postrzegane jako dominująca opinia) [11]. Dlatego ważne jest zrozumienie interakcji zaufania, delegowania zadań i dynamiki wpływu społecznego między tymi dwoma podmiotami, w kontekście wyżej wymienionych teorii. Zrozumienie mechanizmów, które napędzają ludzkie zaufanie, delegowanie zadań oraz adaptację decyzji w systemach wspomagania decyzji opartych na AI, jest kluczowe dla projektowania systemów, które wspierają, a nie zastępują, ludzki osąd. Teoria planowanego zachowania [1] stanowi użyteczną perspektywę do badania, jak postrzegana użyteczność, łatwość użytkowania i normy społeczne wpływają na poleganie ludzi na AI [8]. Badania wykazały, że użytkownicy mają tendencję do większego zaufania do AI, gdy są dostarczane wyjaśnienia (Binns et al., 2018), ale nadmierne szczegóły mogą prowadzić do przeciążenia poznawczego, zmniejszając zaufanie i zaangażowanie [4].

Ten projekt bada, jak dynamika zaufania, delegowanie zadań i mechanizmy wpływu społecznego wpływają na współpracę człowiek-AI w systemach DSS, wykorzystując badania użytkowników do analizy zachowań w różnych kontekstach decyzyjnych. Projekt ma na celu systematyczne zbadanie, jak wpływ społeczny i obciążenie poznawcze współdziałają, aby wpływać na delegowanie zadań i poleganie na DSS opartych na AI, testując, czy różne style wyjaśnień i poziomy pewności AI wpływają na zachowanie użytkowników. Dodatkowo, projekt ma na celu testowanie eksperymentalne, jak wyjaśnialność, wpływ społeczny i złożoność zadań współdziałają w kształtowaniu współpracy człowiek-AI. Wykorzystując badania użytkowników (np. crowdsourcing), zrealizujemy interaktywne scenariusze podejmowania decyzji w różnych dziedzinach, mierząc, jak zaufanie ewoluuje w czasie i w różnych warunkach eksperymentalnych. Identyfikując kluczowe czynniki wpływające na kalibrację zaufania, delegowanie i zachowania decyzyjne, badania te przyczynią się do rozwoju bardziej efektywnych, przejrzystych i skoncentrowanych na człowieku systemów DSS opartych na AI. Ponadto ocenimy zdolność systemów AI do wspomagania interaktywnego podejmowania decyzji w środowisku edukacyjnym.

Pytania badawcze, które mogą być przedmiotem badania:

RQ4: Jak wyjaśnienia AI wpływają na współpracę człowiek-AI?

RQ1: Kiedy ludzie ufają rekomendacjom AI bardziej niż własnym decyzjom?

RQ2: Jak AI wpływa na zachowanie decyzyjne ludzi w czasie?

RQ3: W jakich sytuacjach ludzie delegują decyzje do AI, zamiast podejmować je samodzielnie?

Bibliografia

[1] Icek Ajzen. 1991. The Theory of planned behavior. Organizational Behavior and Human Decision Processes (1991).

[2] Gagan Bansal, Tongshuang Wu, Joyce Zhou, Raymond Fok, Besmira Nushi, Ece Kamar, Marco Tulio Ribeiro, and Daniel Weld. 2021. Does the whole exceed its parts? the effect of ai explanations on complementary team performance. In Proceedings of the 2021 CHI conference on human factors in computing systems. 1–16.

[3] Robert B Cialdini and Noah J Goldstein. 2004. Social influence: Compliance and conformity. Annu. Rev. Psychol. 55, 1 (2004), 591–621.

[4] Motahhare Eslami, Sneha R Krishna Kumaran, Christian Sandvig, and Karrie Karahalios. 2018. Communicating algorithmic process in online behavioral advertising. In Proceedings of the 2018 CHI conference on human factors in computing systems. 1–13.

[5] Leon Festinger. 1954. A theory of social comparison processes. Human relations 7, 2 (1954), 117–140.

[6] Kate Goddard, Abdul Roudsari, and Jeremy C Wyatt. 2012. Automation bias: a systematic review of frequency, effect mediators, and mitigators. Journal of the American Medical Informatics Association 19, 1 (2012), 121–127.

[7] John D Lee and Katrina A See. 2004. Trust in automation: Designing for appropriate reliance. Human factors 46, 1 (2004), 50–80.

[8] Jennifer M Logg, Julia A Minson, and Don A Moore. 2019. Algorithm appreciation: People prefer algorithmic to human judgment. Organizational Behavior and Human Decision Processes 151 (2019), 90–103.

[9] Raja Parasuraman and Victor Riley. 1997. Humans and automation: Use, misuse, disuse, abuse. Human factors 39, 2 (1997), 230–253.

[10] John Sweller. 1988. Cognitive load during problem solving: Effects on learning. Cognitive science 12, 2 (1988), 257–285.

[11] Baobao Zhang and Allan Dafoe. 2020. US public opinion on the governance of artificial intelligence. In Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society. 187–193

VI. Czy AI rozumie zaufanie? Formowanie zaufania w symulowanych społeczeństwach opartych na LLM – Zastosowanie teorii zaufania do oceny generowania decyzji przez wielu agentów

Zespół promotorski

prof. dr hab. Adam Wierzbicki, dr. Rafal Rzepka (Hokkaido University)

Osoby kontaktowe

prof. dr hab. Adam Wierzbicki – adamw [at] pjwstk.edu.pl

Opis problemu

Możliwości dużych modeli językowych (LLM) są testowane w szerokim zakresie aspektów, w tym związanych z prawdomównością, bezpieczeństwem, sprawiedliwością, odpornością, prywatnością czy etyką maszynową [1,2]. Jednak temat zaufania, ze względu na czasochłonny charakter wymaganej interakcji i problemy z kontrolowalnością, jest trudny do zbadania. Problem ten można rozwiązać, wykorzystując LLM do symulowania środowisk, w których wielu agentów nie tylko może komunikować się w naturalnym języku, ale także podejmować (lub proponować) działania [3,4]. Celem takich agentów byłoby udzielanie porad użytkownikom ludzkim na temat zachowań w sytuacjach wymagających zrozumienia zaufania lub braku zaufania. Na przykład, użytkownik może zapytać swojego agenta: „X powiedział mi, że powinienem kupić akcje firmy Y. Czy powinienem zaufać tej radzie?” lub „Według Y powinienem zażądać podwyżki od mojego szefa. Czy Y ma rację?” albo nawet po prostu „Z chce, żebym pojechał z nim na wycieczkę na Majorkę w przyszły weekend. Czy powinienem pojechać?” Agenci AI mogliby próbować odpowiedzieć na te pytania, oceniając wiarygodność ludzi, na przykład pytając użytkownika: „Czy ufasz X, jeśli chodzi o doradztwo na temat giełdy?”. Aby to osiągnąć, agenci AI mogą musieć polegać na informacjach od innych agentów AI; rodzi to z kolei pytanie o wiarygodność samych agentów AI. Zaufanie jest szczególnie ważne w sytuacjach, w których decyzje muszą być podejmowane w warunkach niepewności, z powodu niepełnych informacji lub niepewnego zachowania użytkownika lub agenta. Będziemy starać się stworzyć środowisko eksperymentalne, które odtwarza taką sytuację, aby zbadać, jak agenci AI rozumieją zaufanie.

Komponenty badawcze i metody

Implementacja algorytmów zaufania i sprawiedliwości
Zostało zaproponowanych wiele ram obliczeniowych dla zaufania [5]. W ramach tego badania zaimplementujemy kilka metod obliczeniowych oceny zaufania w scenariuszach z wieloma agentami. Obejmuje to opracowanie metryk do mierzenia poziomu zaufania w interakcjach w naturalnym języku, stworzenie algorytmów do wykrywania naruszeń i napraw zaufania oraz implementację ograniczeń sprawiedliwości w optymalizacji zachowań agentów. System będzie śledzić ewolucję zaufania za pomocą wskaźników językowych i behawioralnych. Oprócz mierzenia zmian zaufania, przeprowadzone zostaną eksperymenty badające zależność między moralnością a zaufaniem.

Framework analizy wzorców dialogowych
Opracujemy pipeline’y przetwarzania języka naturalnego zaprojektowane specjalnie do identyfikowania cech dialogu związanych z zaufaniem. Będzie to obejmować tworzenie schematów adnotacji dla markerów zaufania w rozmowie, implementację analizy sentymentu skoncentrowaną na dynamice zaufania oraz opracowanie metod śledzenia zmian stanu zaufania w trakcie rozwoju dialogu. Framework będzie łączył podejścia oparte na regułach oraz podejścia neuronowe do rozpoznawania wzorców. Oceniamy zaproponowany framework w wielu językach (na przykład angielski, polski lub japoński), dążąc do zaprojektowania uniwersalnego frameworku oceny zaufania, uwzględniającego różnice językowe i kulturowe. Badanie skupi się na identyfikacji zarówno uniwersalnych, jak i specyficznych dla języka wzorców budowania zaufania.

System pomiaru zaufania
Framework oceny będzie łączył różne podejścia do pomiaru: automatyczną analizę językową wskaźników zaufania, rozpoznawanie wzorców behawioralnych oraz ocenę opartą na wynikach. Opracujemy konkretne metryki do mierzenia szybkości, stabilności i odporności formowania zaufania na zakłócenia. System będzie zawierał metody do przeprowadzania analiz porównawczych między różnymi scenariuszami i konfiguracjami agentów.

Ocena generalizacji strategii
Aby zbadać zdolność adaptacji agentów, zaimplementujemy systematyczne metody perturbacji do testowania odporności strategii. Obejmuje to opracowanie protokołów wprowadzania nieoczekiwanych wydarzeń, mierzenie efektywności reakcji oraz analizowanie transferu strategii w różnych kontekstach. Ocena będzie śledzić zarówno natychmiastowe adaptacje, jak i długoterminową ewolucję strategii.

Bibliografia

[1] Huang, Yue, et al. „TrustLLM: Trustworthiness in Large Language Models.” Proceedings of the 41st International Conference on Machine Learning (2024)

[2] Liu, Yang, et al. „Trustworthy LLMs: A survey and guideline for evaluating large language models’ alignment.” arXiv preprint arXiv:2308.05374 (2023).

[3] Gandhi, Kanishk, et al. „Understanding social reasoning in language models with language models.” Advances in Neural Information Processing Systems 36 (2024)

[4] Park, Joon Sung, et al. „Generative agents: Interactive simulacra of human behavior.” Proceedings of the 36th annual ACM symposium on user interface software and technology. 2023.

[5] Wierzbicki, Adam. Trust and fairness in open, distributed systems. Vol. 298. Berlin: Springer, 2010.

VII. Niech AI sugeruje użytkownikowi: Interakcja człowiek – AI w celu poszukiwania eksploracyjnego

Zespół promotorski

prof. dr hab. Adam Wierzbicki, prof. Joemon Jose (University of Glasgow)

Osoby kontaktowe

prof. dr hab. Adam Wierzbicki – adamw [at] pjwstk.edu.pl

Opis problemu

Niniejsze badanie ma na celu zbadanie poprawy efektywności współpracy między agentami AI, szczególnie w kontekście zadań związanych z poszukiwaniem eksploracyjnym. Poszukiwanie eksploracyjne jest ściśle związane z podstawową ludzką aktywnością poszukiwania informacji [1]. W takich scenariuszach użytkownicy często angażują się bez wyraźnego celu lub z luźno określonymi celami. W rezultacie intencje wyszukiwania rozwijają się dynamicznie, kształtowane przez doświadczenia użytkowników i wiedzę, którą zdobywają w trakcie procesu. Poszukiwanie eksploracyjne wiąże się więc ze zrozumieniem różnorodnych potrzeb informacyjnych, identyfikowaniem ich wzajemnych zależności i aktywnym konstruowaniem rozwiązań wyszukiwania. Systemy wieloagentowe stanowią obiecujące podejście do rozwiązywania takich zadań. Głównym wyzwaniem jest jednak umożliwienie agentom nauki podejmowania adaptacyjnych decyzji w złożonych i dynamicznych scenariuszach wyszukiwania. Adaptacyjne podejmowanie decyzji polega na wyborze działań, ocenie ich wyników i wykorzystaniu tych ocen do skutecznego osiągania wyższych stanów nagrody.

Celem tego badania jest zbadanie, jak agenci AI mogą naśladować i ulepszać adaptacyjne oraz ewoluujące strategie wykorzystywane w ludzkich zadaniach poszukiwania informacji. Poszukiwanie eksploracyjne stanowi scenariusz o wysokiej niepewności, w którym stosunkowo niewiele jest zrozumiane na temat procesów poznawczych napędzających podejmowanie decyzji w takich kontekstach [2]. Skuteczne podejmowanie decyzji w tych scenariuszach wymaga znacznej wiedzy na temat środowiska/potrzeb, którą można zdobyć jedynie poprzez eksplorację. Główne wyzwanie polega na zrozumieniu i sformalizowaniu mechanizmów poznawczych, które leżą u podstaw tych procesów, oraz na wykorzystaniu tych wglądów do opracowania rozwiązań dla interakcji opartych na agentach.

Naszym celem jest zaprojektowanie procedury interakcji człowiek-AI, która pozwoli agentom AI raportować wyniki sesji wyszukiwania, uzyskiwać feedback od użytkowników i wykorzystywać ten feedback do dostosowania swojej strategii wyszukiwania. Ta procedura interakcji wykracza poza koncepcję sugerowania, ponieważ podkreśla rolę generatywnej AI w podsumowywaniu wyników wyszukiwania i proszeniu użytkownika o feedback oraz dalsze instrukcje wyszukiwania. W ten sposób rola agenta AI i człowieka może zostać odwrócona.

Skupimy się na zastosowaniu proponowanego systemu otwartego wyszukiwania wspieranego przez AI w środowiskach edukacyjnych, umożliwiając użytkownikom eksplorację wcześniej określonego zestawu wiedzy. Oceniając wyniki nauczania użytkowników w czasie, będziemy w stanie ocenić wydajność poszukiwania eksploracyjnego oraz jego przydatność w różnych scenariuszach nauczania i stylach uczenia się.

Bibliografia

Ryen W. White. Interactions with Search Systems. Cambridge University Press, 2016. ISBN: 978-1-107-03422-8.

Gloria Cecchini, Michael DePass, Emre Baspinar, Marta Andujar, Surabhi Ramawat, Pierpaolo Pani, Stefano Ferraina, Alain Destexhe, Rubén Moreno-Bote, Ignasi Cos, Cognitive mechanisms of learning in sequential decision-making under uncertainty: an experimental and theoretical approach, Frontiers in Behavioral Neuroscience, 2024.

Han, S., Zhang, Q., Yao, Y., Jin, W., Xu, Z., & He, C. (2024). LLM Multi-Agent Systems: Challenges and Open Problems. arXiv preprint arXiv:2402.03578.

VIII. Technologie nauki zdalnej wspierane przez AI: Personalizacja technologii nauki zdalnej w celu zaspokojenia różnorodnych potrzeb dostępnościowych

Zespół promotorski

prof. dr hab. Adam Wierzbicki, dr inż. Bartosz Muczyński (Politechnika Morska w Szczecinie), dr Kinga Skorupska

Osoby kontaktowe

prof. dr hab. Adam Wierzbicki – adamw [at] pjwstk.edu.pl, dr Kinga Skorupska – skorupska [at] pjwstk.edu.pl

Opis problemu

Rosnąca popularność rozproszonych doświadczeń e-learningowych oraz kursów opartych na rozszerzonej rzeczywistości (XR), w połączeniu z rosnącą dostępnością rozwiązań XR, sugeruje, że w przyszłości coraz więcej instytucji edukacyjnych będzie integrować tę technologię w swoich programach nauczania. Niemniej jednak, obecnie nie istnieją kompleksowe wytyczne dotyczące dostępności oraz najlepsze praktyki projektowania, rozwoju i wykorzystywania sprzętu i oprogramowania XR w edukacji na odległość, co stanowi istotną lukę w zapewnieniu inkluzyjności dla wszystkich uczniów.

Integracja sztucznej inteligencji (AI) w nauczaniu zdalnym stanowi szansę na poprawę dostępności dla uczniów o różnych potrzebach w różnych środowiskach e-learningowych. Technologie wspierające AI mogą przełamywać bariery dla uczniów, nie tylko poprzez dostarczanie adaptacyjnych doświadczeń edukacyjnych dostosowanych do indywidualnych wymagań, ale także umożliwiając pełne uczestnictwo, poprzez zaspokajanie ich specyficznych potrzeb dostępnościowych, zarówno w platformach e-learningowych, jak i w immersyjnych środowiskach wirtualnych (IVR).

Celem tego badania jest zbadanie, jak technologie wspierające AI mogą poprawić dostępność w edukacji na odległość w środowiskach XR, promując inkluzyjność. Poprzez wykorzystanie rozwiązań wspieranych przez AI, takich jak analiza predykcyjna, spersonalizowane nauczanie i adaptacyjne interfejsy, temat ten ma na celu rozwiązanie istniejących wyzwań i zaproponowanie opartej na AI ramy dla dostępnej edukacji na odległość.

Potencjalne ogólne hipotezy:

H1: Spersonalizowani nauczyciele AI poprawiają wyniki w nauce uczniów neurozróżnicowanych, dostosowując treści edukacyjne do ich preferencji poznawczych. 

H2: Środowiska rozszerzonej rzeczywistości (XR) wzbogacone o funkcje dostępności wspierane przez AI mogą poprawić doświadczenia edukacyjne uczniów z wyzwaniami sensorycznymi i innymi trudnościami, a także, dzięki efektowi krawężnika, poprawić wyniki w nauce dla wszystkich uczniów. 

H3: Analiza predykcyjna wspierana przez AI może w czasie rzeczywistym identyfikować wyzwania związane z dostępnością i proaktywnie dostarczać dostosowane wsparcie indywidualnym uczniom.

Poprzez badanie tych hipotez, temat ten ma na celu wniesienie wkładu w rozwój inkluzyjnych technologii nauczania zdalnego wspieranych przez AI oraz dostarczenie praktycznych wytycznych dotyczących integracji dostępności w edukacji opartej na XR, zapewniając równe możliwości edukacyjne dla szerszego kręgu uczniów.

Bibliografia

Bartosz Muczyński, Kinga Skorupska, Katarzyna Abramczuk, Cezary Biele, Zbigniew Bohdanowicz, Daniel Cnotkowski, Jazmin Collins, Wiesław Kopeć, Jarosław Kowalski, Grzegorz Pochwatko, and Thomas Logan. 2023. VR Accessibility in Distance Adult Education. In Human-Computer Interaction – INTERACT 2023: 19th IFIP TC13 International Conference, York, UK, August 28 – September 1, 2023, Proceedings, Part IV. Springer-Verlag, Berlin, Heidelberg, 685–691. https://doi.org/10.1007/978-3-031-42293-5_94

Katarzyna Abramczuk, Zbigniew Bohdanowicz, Bartosz Muczyński, Kinga H. Skorupska, and Daniel Cnotkowski. 2023. Meet me in VR! Can VR space help remote teams connect: A seven-week study with Horizon Workrooms. International Journal of Human-Computer Studies 179, 103104. DOI:https://doi.org/10.1016/j.ijhcs.2023.103104.

Geriş, A. 2024. The EVRIM Framework: Guiding Ethical and Inclusive Virtual Reality Integration in Education. Manisa Celal Bayar Üniversitesi Eğitim Fakültesi Dergisi, 12(2), Article 2. https://doi.org/10.52826/mcbuefd.1511454 

Killough, D., Ji, T. F., Zhang, K., Hu, Y., Huang, Y., Du, R., & Zhao, Y. 2024. XR for All: Understanding Developer Perspectives on Accessibility Integration in Extended Reality (arXiv:2412.16321). arXiv. https://doi.org/10.48550/arXiv.2412.16321

IX. Poprawa doświadczeń użytkownika systemów immersyjnych w rozszerzonej rzeczywistości (XR) w badaniach wydajności ludzkiej przy użyciu różnych interfejsów haptycznych: Zmniejszanie obciążenia poznawczego i nabywanie umiejętności motorycznych

Zespół promotorski

dr hab. Adam Kuzdraliński, dr Wiesław Kopeć, dr Grzegorz Pochwatko (Laboratorium VR Instytutu Psychologii PAN), dr. Tommy Nilsson (European Space Agency, European Astronaut Centre)

Osoby kontaktowe

dr Wiesław Kopeć – kopec [at] pjwstk.edu.pl

Opis problemu

Centrum XR PJATK prowadzi badania nad systemami immersyjnymi w kontekście badań wydajności ludzkiej i czynników ludzkich, szczególnie w zakresie eksploracji kosmosu oraz warunków izolacji w ramach projektu Alpha-XR, a także jego zastosowań w rzeczywistych warunkach, w tym szkolenia, selekcji i teleoperacji [1].

Systemy immersyjne w rozszerzonej rzeczywistości (XR), obejmujące Wirtualną Rzeczywistość (VR) i Rozszerzoną Rzeczywistość (AR), są coraz częściej wykorzystywane w badaniach wydajności ludzkiej w kontekście eksploracji kosmosu, np. jako część zaleceń ESA dla zespołów badawczych na temat przestrzennych analogów i wydajności ludzkiej, a także w różnych dziedzinach, takich jak szkolenia, selekcja i nabywanie umiejętności [1,2]. Systemy te oferują kontrolowane środowiska i precyzyjne możliwości pomiarowe, które umożliwiają badaczom analizowanie ludzkiego zachowania i wydajności w realistycznych scenariuszach. Jednak skuteczność badań opartych na XR jest w dużej mierze uzależniona od doświadczenia użytkownika, zwłaszcza podczas stosowania interfejsów haptycznych powiązanych z interakcjami z fizycznymi obiektami.

Obecne badania często koncentrują się na aspektach technicznych sprzężenia zwrotnego haptycznego, zaniedbując wymagania poznawcze i motoryczne nakładane na użytkowników. Na przykład, złożone wzorce haptyczne i interakcje mogą powodować nadmierne obciążenie poznawcze, utrudniając naukę i wydajność, a także mają negatywny wpływ na dobrostan w warunkach izolacji [3]. Co więcej, indywidualne różnice w nabywaniu umiejętności motorycznych i przetwarzaniu sensorycznym mogą wpłynąć na zdolność użytkownika do skutecznego interpretowania i wykorzystywania sprzężenia zwrotnego haptycznego.

Dla tego transdyscyplinarnego tematu badawczego istnieje kilka kluczowych obszarów badawczych związanych z badaniem, rozwojem i poprawą doświadczenia użytkownika systemów immersyjnych XR w badaniach wydajności ludzkiej, w tym:

  1. Optymalizacja Projektowania Interfejsów Haptycznych: Zbadanie wpływu różnych parametrów interfejsu haptycznego (np. sprzężenie zwrotne siłowe, wzorce wibracji, symulacja tekstur) oraz niestandardowych kontrolerów, jak również różnych metod mieszania fizycznych obiektów z elementami wirtualnymi na obciążenie poznawcze, nabywanie umiejętności motorycznych i zaangażowanie użytkownika. Zaprojektowanie i ocena adaptacyjnych strategii sprzężenia zwrotnego haptycznego, które dostosowują się do indywidualnych cech użytkownika i wymagań zadania.
  2. Rozwój Modeli Interakcji Skierowanych na Użytkownika: Stworzenie modeli interakcji skierowanych na użytkownika, które uwzględniają ograniczenia poznawcze, zmienność umiejętności motorycznych i różnice w przetwarzaniu sensorycznym. Modele te posłużą do projektowania intuicyjnych i efektywnych interfejsów XR, które minimalizują obciążenie poznawcze i maksymalizują wyniki nauki.
  3. Kwantyfikowanie Obciążenia Poznawczego i Nabywania Umiejętności Motorycznych: Opracowanie i walidacja metodologii kwantyfikowania obciążenia poznawczego i nabywania umiejętności motorycznych w środowiskach XR z wykorzystaniem różnych interfejsów haptycznych. Obejmuje to wykorzystanie miar psychofizjologicznych (np. EEG, zmienność rytmu serca), danych behawioralnych (np. śledzenie ruchów, wydajność zadania) oraz ocen subiektywnych (np. kwestionariusze, wywiady).
  4. Badanie Wpływu Różnic Indywidualnych: Zbadanie, jak różnice indywidualne, takie jak wiek, doświadczenie wcześniejsze i zdolności poznawcze, wpływają na doświadczenie użytkownika i wydajność w badaniach wydajności ludzkiej opartych na XR.

Główna hipoteza zakłada, że optymalizacja projektowania interfejsu haptycznego i modeli interakcji opartych na zasadach skierowanych na użytkownika znacznie poprawi doświadczenie użytkownika, zwiększy nabywanie umiejętności motorycznych i zmniejszy obciążenie poznawcze w immersyjnych systemach szkoleniowych XR. Problem badawczy obejmuje podejście multidyscyplinarne, łącząc silne rozpoznanie systemów XR (zarówno oprogramowania, jak i rozwoju treści) z interakcją człowiek-komputer, psychologią poznawczą, kontrolą motoryczną oraz technologią haptyczną. Badania te przyczynią się do rozwoju bardziej efektywnych i dostępnych badań wydajności ludzkiej opartych na XR, w ramach Centrum XR PJATK i grupy badawczej Human Aspects in Science and Engineering (HASE). 

Bibliografia

Kopeć, W., Pochwatko, G., Kornacka, M., et al.(2024). Human Factors in Space Exploration: Opportunities for International and Interdisciplinary Collaboration. In: Biele, C., et al. Digital Interaction and Machine Intelligence. MIDI 2023. Lecture Notes in Networks and Systems, vol 1076. Springer, Cham. https://doi.org/10.1007/978-3-031-66594-3_35

De la Torre, Kopeć, W. et al. Space Analogs and Behavioral Health Performance Research review and recommendations checklist from ESA Topical Team. npj Microgravity 10, 98 (2024). https://doi.org/10.1038/s41526-024-00437-w

G. Pochwatko, Kopec, W., Nilsson, T., et al., Well-being in Isolation: Exploring Artistic Immersive Virtual Environments in a Simulated Lunar Habitat to Alleviate Asthenia Symptoms, 2023 IEEE International Symposium on Mixed and Augmented Reality (ISMAR), Sydney, Australia, 2023, pp. 185-194, doi: 10.1109/ISMAR59233.2023.00033.

X. Badanie systemów ciągłości eXtended Reality (XR) w środowiskach diagnostycznych i terapeutycznych: Wykorzystanie integracji danych multimodalnych i spersonalizowanych interwencji

Zespół promotorski

dr hab. Adam Kuzdraliński, dr Wiesław Kopeć, dr Monika Kornacka (Interdyscyplinarne Laboratorium Regulacji Emocjonalnej i Procesów Poznawczych Uniwersytetu SWPS), dr. Tommy Nilsson (European Space Agency, European Astronaut Centre)

Osoby kontaktowe

dr Wiesław Kopeć – kopec [at] pjwstk.edu.pl

Opis problemu

Centrum XR PJATK prowadzi badania nad systemami immersyjnymi w kontekście badań wydajności ludzkiej i czynników ludzkich, szczególnie w zakresie eksploracji kosmosu oraz warunków izolacji w ramach projektu Alpha-XR, a także jego zastosowań w rzeczywistych warunkach, w tym szkolenia, selekcji i teleoperacji [1].

Systemy immersyjne w rozszerzonej rzeczywistości (XR), obejmujące Wirtualną Rzeczywistość (VR) i Rozszerzoną Rzeczywistość (AR), są coraz częściej wykorzystywane w badaniach wydajności ludzkiej w kontekście eksploracji kosmosu, np. jako część zaleceń ESA dla zespołów badawczych na temat przestrzennych analogów i wydajności ludzkiej, a także w różnych dziedzinach, takich jak szkolenia, selekcja i nabywanie umiejętności [1,2]. Systemy te oferują kontrolowane środowiska i precyzyjne możliwości pomiarowe, które umożliwiają badaczom analizowanie ludzkiego zachowania i wydajności w realistycznych scenariuszach. Jednak skuteczność badań opartych na XR jest w dużej mierze uzależniona od doświadczenia użytkownika, zwłaszcza podczas stosowania interfejsów haptycznych powiązanych z interakcjami z fizycznymi obiektami.

Obecne badania często koncentrują się na aspektach technicznych sprzężenia zwrotnego haptycznego, zaniedbując wymagania poznawcze i motoryczne nakładane na użytkowników. Na przykład, złożone wzorce haptyczne i interakcje mogą powodować nadmierne obciążenie poznawcze, utrudniając naukę i wydajność, a także mają negatywny wpływ na dobrostan w warunkach izolacji [3]. Co więcej, indywidualne różnice w nabywaniu umiejętności motorycznych i przetwarzaniu sensorycznym mogą wpłynąć na zdolność użytkownika do skutecznego interpretowania i wykorzystywania sprzężenia zwrotnego haptycznego.

Dla tego transdyscyplinarnego tematu badawczego istnieje kilka kluczowych obszarów badawczych związanych z badaniem, rozwojem i poprawą doświadczenia użytkownika systemów immersyjnych XR w badaniach wydajności ludzkiej, w tym:

  1. Optymalizacja Projektowania Interfejsów Haptycznych: Zbadanie wpływu różnych parametrów interfejsu haptycznego (np. sprzężenie zwrotne siłowe, wzorce wibracji, symulacja tekstur) oraz niestandardowych kontrolerów, jak również różnych metod mieszania fizycznych obiektów z elementami wirtualnymi na obciążenie poznawcze, nabywanie umiejętności motorycznych i zaangażowanie użytkownika. Zaprojektowanie i ocena adaptacyjnych strategii sprzężenia zwrotnego haptycznego, które dostosowują się do indywidualnych cech użytkownika i wymagań zadania.
  2. Rozwój Modeli Interakcji Skierowanych na Użytkownika: Stworzenie modeli interakcji skierowanych na użytkownika, które uwzględniają ograniczenia poznawcze, zmienność umiejętności motorycznych i różnice w przetwarzaniu sensorycznym. Modele te posłużą do projektowania intuicyjnych i efektywnych interfejsów XR, które minimalizują obciążenie poznawcze i maksymalizują wyniki nauki.
  3. Kwantyfikowanie Obciążenia Poznawczego i Nabywania Umiejętności Motorycznych: Opracowanie i walidacja metodologii kwantyfikowania obciążenia poznawczego i nabywania umiejętności motorycznych w środowiskach XR z wykorzystaniem różnych interfejsów haptycznych. Obejmuje to wykorzystanie miar psychofizjologicznych (np. EEG, zmienność rytmu serca), danych behawioralnych (np. śledzenie ruchów, wydajność zadania) oraz ocen subiektywnych (np. kwestionariusze, wywiady).
  4. Badanie Wpływu Różnic Indywidualnych: Zbadanie, jak różnice indywidualne, takie jak wiek, doświadczenie wcześniejsze i zdolności poznawcze, wpływają na doświadczenie użytkownika i wydajność w badaniach wydajności ludzkiej opartych na XR.

Główna hipoteza zakłada, że optymalizacja projektowania interfejsu haptycznego i modeli interakcji opartych na zasadach skierowanych na użytkownika znacznie poprawi doświadczenie użytkownika, zwiększy nabywanie umiejętności motorycznych i zmniejszy obciążenie poznawcze w immersyjnych systemach szkoleniowych XR. Problem badawczy obejmuje podejście multidyscyplinarne, łącząc silne rozpoznanie systemów XR (zarówno oprogramowania, jak i rozwoju treści) z interakcją człowiek-komputer, psychologią poznawczą, kontrolą motoryczną oraz technologią haptyczną. Badania te przyczynią się do rozwoju bardziej efektywnych i dostępnych badań wydajności ludzkiej opartych na XR, w ramach Centrum XR PJATK i grupy badawczej Human Aspects in Science and Engineering (HASE). 

Bibliografia

Kopeć, W., Pochwatko, G., Kornacka, M., et al.(2024). Human Factors in Space Exploration: Opportunities for International and Interdisciplinary Collaboration. In: Biele, C., et al. Digital Interaction and Machine Intelligence. MIDI 2023. Lecture Notes in Networks and Systems, vol 1076. Springer, Cham. https://doi.org/10.1007/978-3-031-66594-3_35

De la Torre, Kopeć, W. et al. Space Analogs and Behavioral Health Performance Research review and recommendations checklist from ESA Topical Team. npj Microgravity 10, 98 (2024). https://doi.org/10.1038/s41526-024-00437-w

G. Pochwatko, Kopec, W., Nilsson, T., et al., Well-being in Isolation: Exploring Artistic Immersive Virtual Environments in a Simulated Lunar Habitat to Alleviate Asthenia Symptoms, 2023 IEEE International Symposium on Mixed and Augmented Reality (ISMAR), Sydney, Australia, 2023, pp. 185-194, doi: 10.1109/ISMAR59233.2023.00033.

XI. Opracowanie algorytmu kodowania danych w DNA uwzględniającego właściwości biofizykochemiczne oraz ograniczenia technologiczne syntezy i sekwencjonowania kwasów nukleinowych.

Zespół promotorski

 dr hab. Adam Kuzdraliński, dr Tomasz Ociepa

Osoby kontaktowe

dr hab. Adam Kuzdraliński – akuzdralinski [at] pjwstk.edu.pl

Opis problemu

Nadrzędnym celem projektu będzie opracowanie nowego algorytmu kodowania informacji w DNA, integrującego podejście informatyczne z ograniczeniami biofizykochemicznymi kwasów nukleinowych. Celem jest opracowanie metody zapisu danych w sekwencjach DNA, która wykaże wysoką odporność na degradację syntetycznego materiału genetycznego oraz minimalizację błędów odczytu, przy jednoczesnym uwzględnieniu limitacji technologii syntezy oraz sekwencjonowania.

Badania obejmą szczegółową analizę czynników wpływających na stabilność chemiczną DNA, co pozwoli zaprojektować algorytm generujący sekwencje o zwiększonej trwałości. Zostanie to osiągnięte poprzez precyzyjną kontrolę składu nukleotydowego, eliminację niestabilnych motywów sekwencyjnych, zastosowanie zaawansowanych struktur dwuniciowych, mechanizmów redundancji fizycznej i innych.

Równolegle projekt uwzględni techniczne parametry syntezy DNA, takie jak maksymalna długość uzyskiwanych odcinków, konieczność stosowania sekwencji indeksujących oraz strategie składania fragmentów w dłuższe sekwencje. Proponowany algorytm zoptymalizuje podział danych na fragmenty przy minimalizacji narzutu informacyjnego (ale z uwzględnieniem koniecznej nadmiarowości), jednocześnie uwzględniając adaptację do przyszłych technologii (jak enzymatyczna synteza długich sekwencji, jak również dłuższe odczyty podczas sekwencjonowania).

Innym istotnym elementem pracy będzie dostosowanie algorytmu do specyfiki różnorodnych platform sekwencjonowania. Planowane jest opracowanie schematów kodowania kompatybilnych zarówno z sekwenatorami Illumina (charakteryzującymi się krótkimi odczytami i niskim poziomem błędów substytucji, w obróbce danych wymagającymi składania fragmentów) jak i technologią Oxford Nanopore (umożliwiającą uzyskanie bardzo długich odczytów, lecz obarczonych częstymi błędami typu indel). Badania obejmą optymalizację parametrów sekwencji (skład GC, homopolimery, miejsca rozpoznawane przez enzymy restrykcyjne, miejsca szczególnie podatne na degradację) oraz implementację wzorców kontrolnych ułatwiających synchronizację odczytu danych. Algorytm będzie dynamicznie dostosowywał się do profilu błędów konkretnej technologii sekwencjonowania.

Fundamentalnym aspektem informatycznym projektu będzie zaawansowany system korekcji błędów dedykowany zapisowi DNA, makromolekuły o specyficznych cechach. W ramach pracy przeprowadzona zostanie analiza istniejących kodów korekcyjnych oraz zaproponowane ich udoskonalenia. Przewidziano implementację hierarchicznego systemu korekcji działającego na dwóch poziomach: korekty błędów w obrębie pojedynczych nici DNA oraz na poziomie całego zbioru fragmentów.

Proponowane badania mają charakter interdyscyplinarny, łącząc zaawansowane koncepcje informatyczne z wiedzą z zakresu nauk biologicznych (biofizykochemia DNA jako polimeru, chemia nukleotydów, technologie sekwencjonowania i syntezy).

Oczekiwanym rezultatem projektu będzie kompleksowy system kodowania danych w DNA, wykazujący odporność na błędy przewyższający dotychczas stosowane rozwiązania. Wyniki badań wniosą istotny wkład do rozwoju fundamentów informatycznych dla biologicznych pamięci masowych.

Zadania

  1. Przegląd literatury:

– Dogłębna analiza istniejących metod kodowania danych w DNA, ze szczególnym uwzględnieniem wyzwań związanych z degradacją, syntezą oraz sekwencjonowaniem (Illumina, Oxford Nanopore i inne technologie).

– Zidentyfikowanie kluczowych czynników wpływających na stabilność sekwencji DNA (np. skład nukleotydowy, struktury drugorzędowe, ograniczenia technologii syntezy).

– Przegląd aktualnych strategii korekcji błędów stosowanych w systemach pamięci DNA oraz analiza ich efektywności i ograniczeń.

  1. Projektowanie algorytmu kodowania:

– Opracowanie algorytmu kodowania danych w DNA, który adresuje opisane wyżej wyzwania.

– Zaprojektowanie strategii podziału danych na fragmenty z uwzględnieniem długości oligonukleotydów, indeksowania oraz ewentualnej redundancji, tak aby minimalizować wpływ degradacji.

– Uwzględnienie ograniczeń związanych z zachowaniem optymalnej zawartości GC, unikania długich homopolimerów oraz innych sekwencyjnych restrykcji mających wpływ na procesy syntezy i sekwencjonowania.

  1. Implementacja mechanizmów korekcji błędów:

– Zintegrowanie algorytmów korekcji błędów, które działają na dwóch poziomach: wewnątrz pojedynczych sekwencji (korekta błędów nukleotydowych, indeli i innych) oraz w większej skali.

– Eksperymentalne symulacje pilotażowe algorytmów korekcyjnych.

  1. Ocena efektywności i optymalizacja systemu:

– Przeprowadzenie zaawansowanych symulacji oceniających gęstość zapisu, narzut redundancji i efektywność korekcji błędów w różnych scenariuszach (zmienne warunki degradacji, różne profile błędów sekwencjonowania, wpływ czynników środowiskowych).

– Uzupełnienie algorytmu w kontekście zmieniających się ograniczeń technologicznych.

– Opracowanie prototypowego systemu umożliwiającego testowanie opracowanego algorytmu.

Bibliografia

Kopeć, W., Pochwatko, G., Kornacka, M., et al.(2024). Human Factors in Space Exploration: Opportunities for International and Interdisciplinary Collaboration. In: Biele, C., et al. Digital Interaction and Machine Intelligence. MIDI 2023. Lecture Notes in Networks and Systems, vol 1076. Springer, Cham. https://doi.org/10.1007/978-3-031-66594-3_35

De la Torre, Kopeć, W. et al. Space Analogs and Behavioral Health Performance Research review and recommendations checklist from ESA Topical Team. npj Microgravity 10, 98 (2024). https://doi.org/10.1038/s41526-024-00437-w

G. Pochwatko, Kopec, W., Nilsson, T., et al., Well-being in Isolation: Exploring Artistic Immersive Virtual Environments in a Simulated Lunar Habitat to Alleviate Asthenia Symptoms, 2023 IEEE International Symposium on Mixed and Augmented Reality (ISMAR), Sydney, Australia, 2023, pp. 185-194, doi: 10.1109/ISMAR59233.2023.00033.


DYSCYPLINA – SZTUKI PLASTYCZNE I KONSERWACJA DZIEŁ SZTUKI

I. Sztuka i tożsamość – Zmiany w reprezentacji tożsamości w kontekście współczesnych problemów społecznych

Opis programu

Program koncentruje się na badaniu, w jaki sposób współczesna sztuka odzwierciedla, kształtuje i kwestionuje różne aspekty tożsamości, takie jak tożsamość płciowa, rasowa, narodowa czy seksualna. Uczestnicy będą analizować, jak artyści reagują na aktualne problemy społeczne i polityczne, takie jak migracje, prawa człowieka, nierówności społeczne, postkolonializm czy globalizacja. Celem programu jest również tworzenie własnych projektów artystycznych, które wchodzą w dialog z tymi zagadnieniami, a także badanie wpływu sztuki na kształtowanie tożsamości indywidualnej i zbiorowej.

Cele programu

  1. Analiza, jak współczesna sztuka odzwierciedla i wpływa na postrzeganie tożsamości.
  2. Tworzenie projektów artystycznych reagujących na aktualne wyzwania społeczne i polityczne.
  3. Badanie roli sztuki w budowaniu tożsamości indywidualnej i zbiorowej w kontekście globalizacji i postkolonializmu.
  4. Eksploracja nowych form wyrazu artystycznego, które podważają stereotypy i normy społeczne.

Zadania

  1. Analiza współczesnych dzieł sztuki – przegląd prac artystów podejmujących tematykę tożsamości i jej przemian w kontekście problemów społecznych.
  2. Tworzenie projektów artystycznych – realizacja własnych dzieł, które poruszają kwestie tożsamości w świetle globalnych wyzwań, takich jak migracja, kryzysy społeczne, nierówności płciowe i rasowe.
  3. Badanie wpływu sztuki na tożsamość – analiza, w jaki sposób sztuka kształtuje postrzeganie siebie i innych w dobie postkolonializmu i globalizacji.
  4. Organizacja wystaw i wydarzeń – prezentacja projektów w przestrzeniach publicznych lub galeriach, mająca na celu angażowanie społeczności i stymulowanie dyskusji.
  5. Publikacja wyników badań – dokumentacja procesu twórczego oraz wniosków z badań w formie artykułów, katalogów wystaw lub multimedialnych prezentacji.

Wybrane zagadnienia badawcze

  • Reprezentacja tożsamości płciowej i seksualnej w sztuce współczesnej – badanie, jak artyści eksplorują i wyrażają kwestie związane z płcią czy seksualnością.
  • Migracja i tożsamość w sztuce – eksploracja tematyki migracji, uchodźstwa i przemieszczania się w kontekście budowania i redefiniowania tożsamości.
  • Sztuka jako narzędzie aktywizmu społecznego – badanie, jak artyści wykorzystują swoje prace do wywoływania zmian społecznych i politycznych.
  • Kultura wizualna a tożsamość narodowa i globalna – analiza, jak sztuka balansuje między lokalnymi tożsamościami a globalnymi narracjami kulturowymi.
  • Wpływ mediów cyfrowych na kształtowanie tożsamości – badanie, jak technologie cyfrowe, takie jak media społecznościowe czy VR, wpływają na sposoby reprezentowania i postrzegania tożsamości.

Współpraca w grupie badawczej

Program przewiduje współpracę interdyscyplinarną, łączącą artystów, socjologów, teoretyków kultury i aktywistów. Taka różnorodność perspektyw pozwoli na głębsze zrozumienie problematyki tożsamości oraz umożliwi tworzenie projektów, które nie tylko estetycznie, ale również społecznie rezonują z aktualnymi wyzwaniami.

Promotorzy

dr hab. Anna Barlik – annabarlik [at] pja.edu.pl, dr Magdalena Zdrazil – astromagda [at] pjwstk.edu.pl

II. Sztuka i konteksty lokalne – Badania terenowe i globalna problematyka miejsca

Opis programu

Program skupia się na badaniu roli lokalnych kontekstów kulturowych, społecznych i geograficznych w sztuce współczesnej. Uczestnicy będą eksplorować, w jaki sposób sztuka reaguje na specyfikę miejsca – zarówno w sensie fizycznym, jak i symbolicznym – oraz jak lokalne narracje, tradycje i problemy społeczne wpływają na twórczość artystyczną. Ważnym aspektem programu jest również zrozumienie, jak globalne procesy, takie jak migracja, urbanizacja, zmiany klimatyczne czy globalizacja kultury, oddziałują na lokalne tożsamości i praktyki artystyczne. Program przewiduje prowadzenie badań terenowych w różnych środowiskach lokalnych – od małych społeczności po duże ośrodki miejskie – z uwzględnieniem ich unikalnych kontekstów historycznych, społecznych i politycznych. Wyniki tych badań będą stanowiły podstawę do tworzenia projektów artystycznych, które wchodzą w dialog z badanym miejscem i jego mieszkańcami.

Cele programu

  1. Zbadanie, jak sztuka odzwierciedla i współtworzy lokalne tożsamości.
  2. Analiza wpływu globalnych procesów na lokalne środowiska artystyczne.
  3. Tworzenie dzieł artystycznych w odpowiedzi na specyficzne konteksty lokalne.
  4. Prowadzenie badań terenowych w różnych częściach świata w celu dokumentowania i
    analizy
    lokalnych narracji kulturowych.
  5. Promowanie sztuki jako narzędzia do budowania więzi społecznych i dialogu
    międzykulturowego.

Zadania

  1. Przegląd literatury i case studies dotyczących sztuki miejsca oraz roli kontekstu lokalnego
    w twórczości artystycznej na świecie.
  2. Prowadzenie badań terenowych w wybranych lokalizacjach – dokumentacja lokalnych
    historii,
    tradycji i problemów społecznych.
  3. Analiza wpływu globalnych zjawisk (migracja, urbanizacja, zmiany klimatyczne) na sztukę
    związaną z miejscem.
  4. Tworzenie projektów artystycznych w odpowiedzi na lokalne wyzwania – prace site-
    specific, instalacje, działania w przestrzeni publicznej.
  5. Współpraca z lokalnymi społecznościami – angażowanie mieszkańców w proces twórczy i
    organizowanie warsztatów oraz wydarzeń artystycznych.
  6. Prezentacja wyników badań i dzieł w formie wystaw, publikacji lub multimedialnych
    projektów.
  7. Analiza wpływu sztuki na społeczności lokalne – badanie, w jaki sposób projekty
    artystyczne mogą wspierać budowanie tożsamości i rozwiązywanie problemów społecznych.

Zagadnienia badawcze do wyboru

  1. Sztuka site-specific i tożsamość miejsca – badanie, jak dzieła sztuki wpisują się w
    kontekst lokalny, reagując na jego historię, architekturę i społeczność.
  2. Lokalne narracje a globalne wyzwania – analiza, jak lokalne społeczności artystyczne
    reagują na problemy globalne, takie jak zmiany klimatyczne, migracja czy konflikty
    społeczne.
  3. Kontekst postkolonialny w sztuce lokalnej – badanie, jak dziedzictwo kolonializmu wpływa
    na
    współczesne praktyki artystyczne w różnych regionach świata.
  4. Sztuka jako narzędzie budowania społeczności – analiza projektów artystycznych
    angażujących
  5. lokalne społeczności w proces twórczy i społeczną zmianę.
  6. Urbanizacja i transformacja przestrzeni publicznej – badanie, jak sztuka reaguje na
    przemiany
    miejskie i procesy gentryfikacji.
  7. Zanikające tradycje i ich reinterpretacja w sztuce współczesnej – dokumentowanie i
    artystyczne
    przetwarzanie lokalnych, często zagrożonych zaniknięciem tradycji kulturowych.

Metody pracy

  1. Badania terenowe: wyjazdy do wybranych miejsc, dokumentowanie przestrzeni, rozmowy z
  2. lokalnymi społecznościami, rejestracja audiowizualna.
  3. Interdyscyplinarne podejście: współpraca z socjologami, antropologami, urbanistami i
    lokalnymi aktywistami.
  4. Projekty partycypacyjne: angażowanie lokalnych społeczności w proces twórczy, warsztaty
    i wspólne działania artystyczne.
  5. Multimedialna dokumentacja: tworzenie filmów, fotografii, instalacji, które oddają specyfikę
    lokalnych kontekstów.

Efekty końcowe

  1. Projekty artystyczne realizowane w wybranych lokalizacjach.
  2. Publikacje naukowe i artystyczne dokumentujące proces badawczy i twórczy.
  3. Wystawy i prezentacje wyników badań w galeriach oraz przestrzeniach publicznych.
  4. Rozwój innowacyjnych metod badania i reprezentowania lokalnych tożsamości w sztuce. Program pozwala uczestnikom na głębokie zanurzenie się w lokalnych kontekstach
    kulturowych, jednocześnie oferując narzędzia do analizy globalnych zjawisk wpływających na sztukę i tożsamość.

Promotorzy

dr hab. Anna Barlik – annabarlik [at] pja.edu.pl, dr Magdalena Zdrazil – astromagda [at] pjwstk.edu.pl

III. Medium fotografii i jego korelacja z filozoficznym i społecznym aspektem współczesnych interdyscyplinarnych działań artystycznych

Opis problemu

Zadanie będzie obejmować badania nad zagadnieniami:

  • Obserwacja fotograficzna jako zapośredniczony obraz rzeczywistości
  • Fotografia jako źródło kreacji i tworzenia warsztatowych środków wyrazowych
  • Obraz fotograficzny – kod treści i dialogu z odbiorcą
  • Filozoficzny i społeczny aspekt komunikacji zapośredniczonej
  • Fotografia cyfrowa jako źródło rejestrowania fragmentu rzeczywistości i ponownego przywoływania informacji oraz wrażeń zmysłowych i emocji. Kontekst medium
    fotograficznego w kreacji i jego związek z przywoływaniem pamięci, obrazem krótkotrwałej, nieodwracalnej i minionej teraźniejszości; symbolicznej obecności – wprowadzenie w problematykę badawczą
  • Proces twórczy – praxis artystyczna w oparciu o interdyscyplinarność działań

Współpraca w grupie badawczej 

Doktoranci podejmujący opisany problem będą współpracować z grupą badawczą dr hab. Beaty Cedrzyńskiej, która współdziała/ła z pracownikami akademickimi uczelni artystycznych w
ramach projektów badawczych (Podoblizny, (Nie)opowiedziane – co tkwi u podstaw fotografii i pamięci).

Zadania

  1. Przegląd literatury i aktualnie prowadzonych w tym zakresie projektów badawczych.
  2. Analiza materiałów i odniesienie się do nich w kontekście własnego projektu.
  3. Dobór członków zespołu.
  4. Stworzenie planu działań inicjujących proces kreacyjny.
  5. Podjęcie działania artystycznego.
  6. Kreacja dzieła artystycznego.

Promotorzy

Dr hab. Beata Cedrzyńska – beata.cedrzynska [at] pja.edu.pl

IV. Sztuka hybrydowa – Integracja technik manualnych z technologiami cyfrowymi w tworzeniu sztuki eksperymentalnej

Opis problemu

Współczesna sztuka coraz częściej łączy techniki manualne z nowoczesnymi technologiami cyfrowymi, tworząc nowe formy wyrazu artystycznego, które angażują odbiorców w sposób inny nich dotychczas. Temat badawczy „Sztuka hybrydowa” ma na celu zbadanie procesów twórczych,  w których tradycyjne techniki ręczne, takie jak np.: rzeźba, malarstwo, grafika warsztatowa, rysunek, ceramika będą wkomponowane w cyfrowe narzędzia – np. programy do obróbki obrazu, technologię 3D czy rzeczywistość rozszerzoną (AR). Istotnym pytaniem badawczym będzie – jak połączenie tych dwóch światów (manualnego i cyfrowego, generatywnego) wpływa na postrzeganie dzieła, jego interaktywność, oraz  przekaz w kontekście nowych mediów. Celem takiego projektu jest przekroczenie granic tradycyjnego pojmowania maestrii. Poszukiwanie nowych dróg, gdzie sztuka staje się żywą, autopsją, która może być zmienna, interaktywna lub zindywidualizowana.  W taki sposób artysta nie tylko tworzy dzieło, lecz także proponuje nowe sposoby percepcji, odkrywania i relacji z dziełem. To nowa forma sztuki, która łączy technologię, kreatywność  i współczesne problemy w spójną, dynamiczną całość. W tym przypadku będzie istotne kreatywne łączenie estetyki i funkcji, gdzie sztuka staje się czymś więcej niż tylko formą ekspresji. Zostaje zintegrowana z technologią w sposób, który nadaje jej funkcjonalność. Może pełnić np. funkcję terapeutyczną, dydaktyczną czy mobilizującą.

Współpraca w grupie badawczej 

Grupa badawcza składałaby się z artystów różnych specjalności, projektantów multimedialnych, praktyków od nowych technologii, psychologów i socjologów zajmujących się interakcją sztuki ze społeczeństwem. Współpraca będzie obejmować zarówno próby eksperymentalne: artystyczne, techniczne i technologiczne, jak i  analizę finalnych procesów twórczych wykazujących, jak odbiorcy reagują na sztukę nową, wykraczającą poza przyzwyczajenia i schematy. Istotnym aspektem będzie wymiana doświadczeń i wiedzy na temat nowych narzędzi cyfrowych, oraz ich eksperymentalnego mieszania.

Zadania

  1. Przegląd i analiza realizacji pokrewnych, literatury i aktualnie prowadzonych badań w tym zakresie na świecie.
  2. Stworzenie konspektu dzieła i uaktywnień inicjujących proces koncepcyjny.
  3. Opracowanie prototypów do badań własnych, ułatwiających integrację manualnych technik artystycznych z cyfrowymi.
  4. Proces badawczy i analiza wyników.
  5. Ocena końcowa.
  6. Ostateczna kreacja dzieła.
  7. Publikacja, wystawienie w przestrzeni publicznej.

Promotorzy

prof. dr hab. Andrzej Kalina, dr Magdalena Zdražil – astromagda [at] pjwstk.edu.pl

V. Sztuka post-digital – Rękodzieło w erze sztucznej inteligencji i algorytmów generatywnych

Opis problemu

W kontekście rozwoju sztucznej inteligencji, oraz algorytmów generatywnych, sztuka staje przed nowymi wyzwaniami – czy maszyny mogą stworzyć autentyczną sztukę, czy też ich
twórczość pozostanie mechaniczna i pozbawiona emocji i uczuć? Z kolei, jak wykorzystać techniki manualne, aby uzupełnić proces twórczy oparty na technologii AI i nie zagubić wartości, ciepła i piękna sztuk manualnych tradycyjnych? Badania mają na celu eksplorację połączenia tradycyjnych metod artystycznych z algorytmicznymi procesami tworzenia obrazów, rzeźb czy instalacji artystycznych. Jakie są granice kreatywności i autentyczności, kiedy twórczość jest wspomagana przez algorytmy i generatywność? Istotnym i dopełniającym aspektem, będzie badanie etycznych i filozoficznych aspektów twórczości, której wytworem jest zarówno artysta, jak i maszyna.

Współpraca w grupie badawczej 

Grupa badawcza będzie składać się z artystów sztuk pięknych z różnych dziedzin, programistów AI, filozofów sztuki oraz specjalistów od teorii mediów cyfrowych. Współpraca ma na celu rozwijanie nowych narzędzi twórczych opartych na sztucznej inteligencji, z naciskiem na użycie technik tradycyjnych i manualnych. Także badanie wpływu AI na procesy twórcze w kontekście tradycyjnego rzemiosła. Wspólna praca będzie obejmować tworzenie eksperymentów artystycznych, jak i analizy filozoficzne nad wagą twórczości w erze maszyn.

Zadania

  1. Przegląd i analiza realizacji pokrewnych, literatury i aktualnie prowadzonych badań w tym zakresie na świecie.
  2. Stworzenie konspektu dzieła i uaktywnień inicjujących proces koncepcyjny.
  3. Opracowanie prototypów do badań własnych.
  4. Proces badawczy i analiza wyników.
  5. Ocena końcowa.
  6. Ostateczna kreacja dzieła.
  7. Publikacja, wystawienie w przestrzeni publicznej.

Promotorzy

prof. dr hab. Andrzej Kalina, dr Magdalena Zdražil – astromagda [at] pjwstk.edu.pl

VI. Symboliczne, psychologiczne i funkcjonalne znaczenie koloru w designie i projektowaniu przestrzeni

Opis problemu

Zadanie będzie obejmować badania nad zagadnieniami:

Kolor jako identyfikacja i komunikacja

Emocjonalny i psychologiczny wpływ koloru na recepcję przestrzeni i produktu.

Ekspresyjno-symboliczna wartość barwy w dziejach sztuki.

Kolor w marketingu i biznesie.

Barwa jako symbol i wartość w tradycji humanistycznej

Teorie percepcji barw – wprowadzenie w problematykę badawczą. Wyniki dotychczasowych poszukiwań oraz ustaleń z zakresu definiowania barw i ich percepcji, z punktu widzenia fizyki i fizjologii (budowa oka, obrazy następcze, kontrast barwny, zjawisko adaptacji, stałość spostrzegania barw, widzenie barwne).

Kolor jako element struktury przestrzeni, określający osie kompozycyjne, wprowadzający akcenty, podkreślający różnice skali.

Zrozumienie wpływu koloru, jego znaczenia w różnych kulturach oraz preferencji odbiorców

Współpraca w grupie badawczej 

Doktoranci podejmujący opisany problem będą współpracować z grupą badawczą dr hab. Agnieszki Ziemiszewskiej i dr Martą Paulat.

Zadania

  1. Przegląd literatury, bibliografii i aktualnie prowadzonych projektów w tym zakresie.
  2. Analiza pozyskanych materiałów i odniesienie się do nich w kontekście swojego projektu.
  3. Nakreślenie planu swoich  działań/ dobór innych członków zespołu
  4. Podjęcie działania artystycznego/projektowego.
  5. Kreacja dzieła artystycznego/projektowego.

Promotorzy

Dr hab. Agnieszka Ziemiszewska – aziemiszewska[at]pja.edu.pl, dr Marta Paulat – marta.paulat[at]pja.edu.pl

Masz pytania? Skontaktuj się z Biurem Prorektora!


Biuro Prorektora,
464 bud. A, 4 piętro,
godziny otwarcia 9:00-16:00
tel.: (22) 58-44-518
e-mail: biuro_prorektora@pjwstk.edu.pl