Sztuczna inteligencja w psychologii i prawie – możliwości i zagrożenia
Gdzie jesteśmy w regulacjach (październik 2024)
Od 1 sierpnia 2024 r. obowiązuje unijna ustawa o AI (AI Act), która wprowadza podejście oparte na ryzyku: od praktyk zakazanych, przez „wysokie ryzyko” (np. systemy medyczne), po ogólnego przeznaczenia modele (GPAI) z dodatkowymi obowiązkami przejrzystości. European Commission
Równolegle europejscy regulatorzy ochrony danych (EDPB) ocenili działanie dużych modeli językowych pod kątem RODO, podkreślając m.in. wymogi rzetelności/zgodności przetwarzania, transparentności oraz problem dokładności danych wyjściowych. edpb.europa.euWILLIAM FRY
W zdrowiu przypominamy, że oprogramowanie o funkcji diagnostycznej/terapeutycznej podlega unijnemu MDR/IVDR i wytycznym MDCG – także wtedy, gdy wykorzystuje AI. Public Health+1
Co AI już potrafi w psychologii
Metaanaliza w NPJ Digital Medicine (2023) wskazuje, że konwersacyjne agentki/ci AI mogą skutecznie redukować objawy lęku i obniżonego nastroju w badaniach eksperymentalnych, zwłaszcza gdy interwencje są dobrze ustrukturyzowane. Źródło: Li i in., 2023. Nature
Z punktu widzenia systemu ochrony zdrowia WHO (2024) rekomenduje wykorzystywanie dużych modeli w sposób „klinicznie ukierunkowany”: z kontrolą jakości, audytowalnością, zarządzaniem ryzykiem i ochroną pacjentów przed błędnymi treściami. Światowa Organizacja Zdrowia
Dla rodzin oznacza to łatwiejszy dostęp do teleterapii wspieranej AI (np. psychoedukacja, przypomnienia, triage), o ile działa ona jako dodatek do opieki ludzkiego specjalisty, a nie zamiennik.
Ryzyka i granice etyczne
Najbardziej oczywistym ryzykiem są halucynacje – pewne siebie, ale fałszywe odpowiedzi, które w zdrowiu i prawie mogą mieć wysoką cenę.
EDPB zwraca uwagę na wyzwania prywatności: modele trenowane na skrobanych danych i treściach wprowadzanych przez użytkowników wymagają jasnej podstawy prawnej, minimalizacji i merytorycznych informacji o przetwarzaniu oraz mechanizmów korygowania nieścisłości. edpb.europa.eu
W aplikacjach klinicznych dochodzi wymóg klinicznego nadzoru i klasyfikacji wyrobu – inaczej ryzykujemy „efekt czarnej skrzynki” bez odpowiedzialności producenta czy dostawcy. Public Health
AI Act wzmacnia tu ochronę: systemy zdrowotne i część rozwiązań prawniczych mogą trafić do kategorii „wysokiego ryzyka”, co oznacza obowiązkowe zarządzanie ryzykiem, dokumentację techniczną, nadzór nad danymi i rejestrowanie zdarzeń. European Commission
W praktyce prawa – lekcje ostrożności
Głośna sprawa Mata v. Avianca w USA zakończyła się sankcjami dla prawników, którzy oparli pismo na wymyślonych przez AI orzeczeniach, przypominając, że narzędzia generatywne nie są bazą orzecznictwa. Justia Prawo
Europejskie i krajowe samorządy prawnicze publikują poradniki „jak używać AI”, akcentując poufność, weryfikację wyników i świadomość ryzyka – to praktyczny kompas dla kancelarii i klinik prawa. lawsociety.org.ukAmerican Bar Association
W naszej pracy oznacza to zasadę: żadnych danych wrażliwych klientów/pacjentów w otwartych modelach, a każdy wynik AI jest hipotezą, którą człowiek weryfikuje merytorycznie i prawnie.
Na co postawić – rekomendacje psychologiczno-prawne
Po pierwsze, governance: rejestr zastosowań AI w organizacji, ocena ryzyka/RODO (DPIA), polityka jakości i ścieżka eskalacji błędów – zanim wdrożymy narzędzie na szeroką skalę. edpb.europa.euEuropean Commission
Po drugie, bezpieczeństwo danych: domyślne pseudonimizowanie, zakaz wprowadzania danych wrażliwych do modeli publicznych, logi dostępu i szkolenia zespołów. Światowa Organizacja Zdrowia
Po trzecie, człowiek w pętli: w zdrowiu psychiczny nadzór kliniczny (MDR/IvDR), w prawie – obowiązkowa weryfikacja źródeł i zgoda klienta na użycie AI w procesie pracy. Public Healthlawsociety.org.uk
Po czwarte, przejrzystość wobec użytkownika: jasna informacja, kiedy rozmawia z maszyną, jakie są ograniczenia narzędzia i gdzie uzyskać pomoc człowieka – to buduje zaufanie i spełnia wymogi AI Act/RODO. European Commissionedpb.europa.eu
Podsumowanie
Sztuczna inteligencja realnie poszerza dostęp do wsparcia psychologicznego i narzędzi pracy prawnika, ale wymaga ram: regulacyjnych, etycznych i organizacyjnych.
Jeśli połączymy dowody skuteczności (badania nad agentami konwersacyjnymi), twarde wymogi prawa (AI Act, RODO, MDR) i profesjonalny nadzór człowieka, zyskamy technologię, która służy ludziom, zamiast ryzykować ich bezpieczeństwem. NatureEuropean Commissionedpb.europa.eu




