GenAI w Szkolnictwie Wyższym: Nowe Perspektywy dla Badań i Dydaktyki
GenAI to nowa infrastruktura poznawcza uczelni. Redefiniuje rolę uniwersytetu jako instytucji poznawczej i infrastrukturalnej oraz wymusza ponowne zdefiniowanie pojęć „wiedza”, „autorstwo” i „myślenie krytyczne”. Wyzwaniem dla uczelni jest to jak projektować sposób współistnienia z AI tak, by technologia wzmacniała sprawczość poznawczą ludzi, a nie ją zastępowała. Oznacza to przejście od zakazów do jawności i zaufania, od „AI do pisania” ku „AI do myślenia”, od oceny produktu do oceny procesu, a także inwestycję w suwerenność danych i infrastruktury oraz kulturę refleksji i odpowiedzialności. To droga, na której uniwersytet zachowuje rolę instytucji długiego trwania i publicznego zaufania.
Po co ten dokument? Aby uporządkować spór o AI wokół tego, co w uczelni najważniejsze: jakości kształcenia, rzetelności badań i zaufania publicznego. Pokazujemy, że dobrze zaprojektowane użycie GenAI może wzmacniać – a nie osłabiać – ludzką sprawczość poznawczą, jeśli potraktujemy technologię jako element infrastruktury i kultury organizacyjnej, a nie doraźny dodatek.
Przyszłość edukacji wyższej w epoce generatywnej AI nie została jeszcze przesądzona. To od naszej wspólnej refleksji, odwagi w zadawaniu trudnych pytań i gotowości do poszukiwania nowych, czasem nieoczywistych, kierunków, zależy, jaką drogę wybierzemy.
GenAI w szkolnictwie wyższym: Rekomendacje dla polityki publicznej i zarządzania uczelnią
Raport “GenAI w szkolnictwie wyższym: Rekomendacje dla polityki publicznej i zarządzania uczelnią” porządkuje najważniejsze wątki i w prosty sposób pokazuje, jak uczelnie mogą z tej zmiany skorzystać, bez utraty jakości, etyki i zaufania. Celem raportu jest usystematyzowanie wątków debaty, pogłębiona analiza oraz sformułowanie wskazówek strategicznych dla polityki publicznej i zarządzania uczelnią. Zapraszamy do lektury i do wspólnego projektowania uczelni, w której GenAI staje się narzędziem, które nas wspiera w procesach nauczania, badania i organizowania pracy.
Raport powstał dzięki doświadczeniom i przykładom uczestników konferencji „GenAI in Higher Education: New Perspectives for Research and Teaching” (Uniwersytet Warszawski, 29–30 maja 2025), organizowanej przez DELab UW w partnerstwie z MiSW. Dziękujemy uczestniczkom i uczestnikom konferencji, panelistom, prowadzącym warsztaty oraz zespołom, które podzieliły się materiałami, danymi i wnioskami z własnych wdrożeń.
Wydarzenie stworzyło autentycznie interdyscyplinarną i międzypokoleniową przestrzeń wymiany myśli, sprzyjającą dialogowi i współpracy ponad tradycyjnymi podziałami. Otwartość i gotowość do dzielenia się doświadczeniem sprawiły, że obok prezentacji badań i refleksji pojawiła się też przestrzeń na budowanie trwałych relacji – zarówno zawodowych, jak i osobistych.
Uczestnicy konferencji podkreślali, że generatywna AI to coś więcej niż technika promptowania czy narzędzie do optymalizacji. W centrum zainteresowania znalazło się pytanie o wartość, edukacyjną, społeczną, a nawet moralną, jaką wnosi technologia do praktyk nauczania i prowadzenia badań. Uczestniczki i uczestnicy konferencji wykazali się dużą otwartością, chętnie kwestionując uproszczone narracje i medialne klisze, które często dominują w dyskusji o AI.
Jednym z największych atutów wydarzenia była różnorodność spojrzeń – od entuzjazmu wobec nowych możliwości po wyważony sceptycyzm wobec ryzyk i wyzwań. Wspólnym mianownikiem była jednak potrzeba podejścia świadomego, uważnego i elastycznego – takiego, które uwzględnia zarówno akademickie, jak i społeczne oraz etyczne realia.
Neil Selwyn, badacz edukacji cyfrowej z Monash University, nadał obradom ton refleksyjny i krytyczny, rozpoczynając konferencję wykładem „GenAI in Higher Education – some things we need to talk about”. Zwrócił uwagę, że spór o AI w szkolnictwie wyższym nie jest wyłącznie techniczny: odsłania napięcia aksjologiczne, epistemologiczne i społeczne, które uczelnie muszą rozpoznać, zanim przejdą do rozwiązań operacyjnych. W tym duchu zaproponował ramę czterech współistniejących perspektyw – od entuzjastycznej po krytyczną i pragmatyczną – jako narzędzie porządkowania debat i decyzji instytucjonalnych.
Selwyn wniósł wyraźne kryterium etyczne: integracja AI powinna wynikać z misji i wartości uczelni, wzmacniać zaufanie poznawcze oraz partycypację, a nie je podkopywać. Zamiast kolejnych zakazów postulował jawność użycia, kodeks wartości poznawczych i współtworzenie zasad ze studentami oraz kadrą. Jego kluczowa myśl, że zadaniem uniwersytetu jest podtrzymywanie zdolności stawiania ważnych pytań, a nie wyłącznie produkcja szybkich odpowiedzi, stała się ważnym punktem odniesienia dla całych obrad i wniosków raportu.
DEBATA 1 – The Fix or the Break GenAI in Higher Education – N. Selwyn, P. Kahn, Z. Lalak, R. Włoch
Debata pokazała napięcie między entuzjazmem wobec GenAI a ochroną wartości akademickich, dlatego uczelnie powinny łączyć innowacje z systematyczną oceną ryzyk i korzyści. Zamiast szybkich wdrożeń potrzebne są jasne, publiczne zasady użycia AI (autorstwo, prywatność, przejrzystość danych) oraz praktyczne wsparcie dla kadry. Trzeba przeprojektować ocenianie: większy nacisk na proces, myślenie krytyczne i sprawdzanie rozumowania, a mniejszy na „gotowy produkt”. Studenci powinni współtworzyć zasady — konsultacje zwiększają ich jakość i słuszność. W pracy badawczej kluczowe są szkolenia z odpowiedzialnego użycia, standardy dokumentowania pracy z modelami oraz inwestycje w infrastrukturę danych. Żeby nie pogłębiać nierówności, warto promować rozwiązania otwarte, lokalne dane i wielojęzyczność. Organizacyjnie przyda się międzyobszarowy zespół ds. AI, pilotaże z miernikami efektów i regularne przeglądy polityk. Jasna komunikacja zasad i budowanie kultury zaufania pozwolą, by GenAI „naprawiał” to, co wymaga zmiany, zamiast „psuć” to, co działa.
DEBATA 2 – Jakiej uczelni chcemy w obliczu rozwoju AI? A. Giza-Poleszczuk, E. Krogulec, A. Szeptycki, J. Uriasz, K. Śledziewska
Ważnym momentem konferencji było wysłuchanie głosu studentów, którzy przedstawili własne oczekiwania wobec edukacji w erze AI. Ich postulaty stały się impulsem do szczerej rozmowy z przedstawicielami uczelni i resortu nauki. Debata wskazała wizję uczelni „z AI i dla ludzi”: jasno zdefiniowane wartości (autonomia, rzetelność, inkluzywność) mają wyznaczać zasady korzystania z narzędzi AI. Kluczowe jest przeprojektowanie oceniania na proces, myślenie krytyczne i dowody rozumowania, przy jednoczesnym wsparciu kadry w praktycznym stosowaniu zasad. Podkreślono równość dostępu (rozwiązania dostępne, wielojęzyczne) oraz standardy badań: transparentne dane, dokumentowanie pracy z modelami i inwestycje w infrastrukturę. Uczestnicy akcentowali współtworzenie zasad przez studentów i współpracę uczelni z otoczeniem gospodarczym, by kompetencje absolwentów odpowiadały realnym potrzebom rynku. Wnioski nie zawsze były wygodne – pokazały jednak z całą ostrością, gdzie uczelnie mogą poprawić strategię w obliczu technologicznych przemian.
DEBATA 3 – Jakiej strategii potrzebują uczelnie w dobie AI? Od wizji do działania. Z. Hazubska, E. Jaskulska, A. Baczko-Dombi, K. Śledziewska, M. Słok-Wódkowska
Dyskutowaliśmy o specyfice polskich uczelni i strategicznych wyborach w dobie rozwijania i wdrażania generatywnej sztucznej inteligencji na uczelniach. Debata „Jakiej strategii potrzebują uczelnie w dobie AI? Od wizji do działania” skupiła się na tym, jak przełożyć deklaracje na konkretne mechanizmy zarządcze – od priorytetów, przez finansowanie, po mierniki efektów. Z perspektywy władz uczelni i administracji państwowej podkreślono potrzebę spójności strategii uczelni z politykami publicznymi oraz jasnych ról: kto odpowiada za prawo, akredytację, a kto za wdrożenia i operacjonalizację na wydziałach. W panelu akcentowano stworzenie programu – portfela projektów AI (krótka lista „must-do”), z przypisanym budżetem, właścicielem i terminem, tak aby AI nie była zbiorem rozproszonych eksperymentów. Wdrożenia powinny opierać się na wspólnych usługach i standardach (data governance, bezpieczeństwo, dostępność), co ogranicza koszty, ryzyka prawne i „wynajdywanie koła na nowo” w jednostkach. Rekomendowano uczelniane „piaskownice regulacyjne” i szybkie pilotaże z prostymi KPI (jakość kształcenia, oszczędność czasu kadry, koszty), po których następuje decyzja: skalować czy zamykać. Zwrócono uwagę na zgodność z akredytacją i jakością kształcenia: programy i oceny muszą zachować weryfikowalność efektów uczenia się oraz przejrzystość użycia AI przez studentów i kadrę. Kluczowe inwestycje dotyczą kompetencji (szkolenia „task-based” dla kadry i administracji), infrastruktury danych oraz narzędzi do dokumentowania pracy z modelami, co wzmacnia replikowalność wyników i bezpieczeństwo. W zakresie współpracy z otoczeniem zalecono ramy zakupowe i partnerstwa minimalizujące uzależnienie od dostawców oraz preferujące rozwiązania otwarte, gdzie to możliwe. Podkreślono znaczącą rolę stałej komunikacji postępów i wsłuchiwania się w głos studentów i nauczycieli — strategia ma być „żywa”, z cyklicznym przeglądem i korektą kursu.
DEBATA 4 – Praktyki stosowania GenAI na uczelniach. M. Kołodziejska, A. Mierzecka, J. Chodak, K. Filipek, M. Paliński
Wreszcie zadaliśmy sobie pytanie, co można zrobić „tu i teraz”? Uczestnicy debaty rekomendowali krótkie pilotaże z prostymi wskaźnikami KPI (czas, jakość), by wybrać narzędzia realnie użyteczne. Potrzebne są centralne standardy pracy z AI (wersjonowanie, logi użycia, adnotacje „AI-assisted”) i katalog rekomendowanych narzędzi, by ograniczyć „shadow AI”. W badaniach kluczowe jest dokumentowanie interakcji z modelami i polityka danych dla replikowalności; w dydaktyce – jasne „ścieżki użycia” zamiast zakazów oraz zadania sprawdzające tok rozumowania. Administracja zyskuje na automatyzacji pism, streszczeń i obsługi studenta – pod warunkiem poufności i oceny ryzyka (DPIA). Strategicznie trzeba ograniczać zależność od dostawców (otwarte alternatywy, klauzule wersjonowania, testy jakości po aktualizacjach). Wniosek: lekki system governance + szkolenia „task-based” i bieżąca komunikacja efektów, by skalować to, co działa.
Generatywna AI na UW – dobre praktyki
Konferencja wyrosła z dyskusji nad wnioskami z badania DELab UW, które znajdziecie w raporcie „Generatywna AI na UW – dobre praktyki”. Rozpoznaliśmy użycia narzędzi generatywnej AI na UW. Zbadaliśmy praktyki studentów, kadry i administracji, zebraliśmy studia przypadków, przeanalizowaliśmy sylabusy i modele oceniania, zweryfikowaliśmy przepływy danych i kwestie własności intelektualnej, dokonaliśmy przeglądu międzynarodowej literatury oraz polityk instytucjonalnych, a także oceniliśmy ryzyka techniczne i etyczne. Na tej podstawie wyprowadziliśmy rekomendacje, które stały się punktem wyjścia do myślenia o zorganizowaniu konferencji: tak, aby przejść od diagnozy do wspólnego projektowania rozwiązań i wymiany dobrych praktyk.


