Duże modele językowe halucynują doradzając w kwestiach prawnych

Prezentowany materiał stanowi część wydawnictwa internetowego realizowanego przez Fundację Rozwoju Edukacji Elektronicznej (FREE) w ramach projektu „Inkluzywna przyszłość – sztuczna inteligencja narzędziem wspierającym osoby z niepełnosprawnościami”.

Projekt ma na celu upowszechnianie wiedzy o możliwościach wykorzystania sztucznej inteligencji w edukacji, w tym w procesach wspierających uczniów i nauczycieli z różnymi potrzebami edukacyjnymi. Jednym z kluczowych założeń inicjatywy jest pokazanie, w jaki sposób nowoczesne technologie mogą służyć włączaniu osób z niepełnosprawnościami w życie społeczne i zawodowe, a także jak mogą ułatwiać im dostęp do wiedzy i informacji.

W tym odcinku zajęliśmy się aspektami prawnymi w kontekście korzystania z dużych modeli językowych. A konkretnie, chcieliśmy pokazać ograniczenia dużych modeli językowych w odniesieniu do udzielania porad prawnych. Mimo ogromnych możliwości, jakie daje ChatGPT 5.2, czy Gemini 3, należy mieć świadomość, że na dużą część pytań prawnych (innych niż banalne) odpowiadają one niepoprawnie. Halucynacje będą plagą LLMów jeszcze przez wiele lat.

Realizacja projektu jest dofinansowana ze środków Państwowego Funduszu Rehabilitacji Osób Niepełnosprawnych (PFRON), co pozwala na przygotowanie i udostępnianie bezpłatnych materiałów edukacyjnych dostępnych dla szerokiego grona odbiorców – nauczycieli, uczniów, rodziców oraz wszystkich zainteresowanych tematyką nowoczesnej i inkluzywnej edukacji.