Miliony ludzi polegają teraz na ChatGPT, który na początku tego roku osiągnął liczbę ponad 500 milionów użytkowników tygodniowo, nie tylko z ciekawości, ale także w poszukiwaniu pomocy w głęboko osobistych sprawach, którymi mogliby się wahać podzielić z inną osobą.
Jeśli jednak liczysz na ChatGPT w kwestii porady prawnej, być może nadszedł czas, aby to przemyśleć. Sam Altman, prezes OpenAI, ujawnił niedawno w podcaście, że rozmowy z ChatGPT nie są chronione „poufnością prawną”, która zazwyczaj obowiązuje w przypadku rozmów z licencjonowanym prawnikiem. W przypadku prawnego obowiązku, OpenAI może być zobowiązane do ujawnienia historii czatów, w tym poufnych dyskusji prawnych, jako dowodu w postępowaniu sądowym.
Robi to szersze pytania dotyczące poufności ChatGPT, sposobu, w jaki platformy AI przetwarzają poufne dane, oraz rosnącego ryzyka związanego z traktowaniem chatbotów jak zaufanych specjalistów.
To musisz wiedzieć
- Rozmowy z ChatGPT nie są chronione poufnością prawną ani tajemnicą adwokacką.
- OpenAI może być prawnie zobowiązane do ujawnienia historii czatów w przypadku wezwania sądowego.
- Prezes Sam Altman potwierdził, że obecnie nie ma żadnych zabezpieczeń dla poufnych rozmów prawnych z AI.
- Eksperci prawni ostrzegają, że korzystanie z ChatGPT w celu uzyskania porady prawnej prowadzi do powstania dowodów, które można ujawnić.
- Narzędzia AI, takie jak ChatGPT, mogą dawać halucynacje i dostarczać nieprawdziwych informacji prawnych.
Czytaj również: Czym jest ChatGPT i jak działa? Jak korzystać z ChatGPT?
Chatboty oparte na sztucznej inteligencji to nie prawnicy
Wypowiedzi Sama Altmana podczas podcastu „This Past Weekend” z Theo Vonem wywołały nową falę krytyki wykorzystania chatbotów opartych na sztucznej inteligencji do rozmów o wrażliwych lub prawnych kwestiach.
Altman przyznaje, że rozmowy z ChatGPT nie są objęte taką samą ochroną prawną jak interakcje z prawnikami, lekarzami czy terapeutami.
Wyjaśnił:
„Obecnie, jeśli rozmawiasz z terapeutą, prawnikiem lub lekarzem o tych problemach, istnieje na to ochrona prawna… A my jeszcze tego nie odkryliśmy, jeśli chodzi o rozmowy z ChatGPT”.
Jessee Bundy, prawnik-założyciel Creative Counsel Law, podkreślił ryzyko związane z X:
„Korzystanie z ChatGPT nie wiąże się z żadną ochroną prawną… jeśli wklejasz umowy, zadajesz pytania prawne lub prosisz o strategię, nie otrzymujesz porady prawnej. Generujesz dowody, które można ujawnić”.
Komentarze Bundy’ego odzwierciedlają rosnące obawy dotyczące prywatności związanej ze sztuczną inteligencją w kręgach prawniczych i regulacyjnych oraz są zgodne ze stanowiskiem Amerykańskiego Stowarzyszenia Adwokatów (American Bar Association), zgodnie z którym prawnicy muszą chronić wszystkie informacje dotyczące klientów, czego prawnicy specjalizujący się w sztucznej inteligencji, a przynajmniej narzędzia reklamowane jako takie, nie są w stanie zrobić.
Altman potwierdził również, że w obecnych okolicznościach prawnych rozmowy z wykorzystaniem sztucznej inteligencji mogą być przedmiotem wezwań sądowych lub ujawnienia w toku postępowania sądowego, z czym jego firma walczy.
Komentarze Altmana pojawiają się w trakcie trwającego sporu prawnego między OpenAI a „The New York Times”, który dąży do zmuszenia firmy do przechowywania danych z czatów użytkowników, z wyłączeniem klientów korporacyjnych, do wykorzystania w postępowaniach sądowych. W odpowiedzi na żądania „The New York Times”, dyrektor operacyjny OpenAI, Brad Lightcap, argumentował, że najnowsze żądania naruszają zaufanie i prywatność wpisane w ich produkty.
„Jest to fundamentalnie sprzeczne z zobowiązaniami dotyczącymi prywatności, które podjęliśmy wobec naszych użytkowników. Narusza to długoletnie normy prywatności i osłabia ochronę prywatności” – napisał Lightcap.
Zaufanie do prywatności w AI może dalej spadać
Chociaż Altman przyznał, że OpenAI będzie przestrzegać ważnych wezwań sądowych, przyznał również, że brak prawnych zabezpieczeń poufności interakcji ze sztuczną inteligencją stanowi poważne zagrożenie dla prywatności użytkowników i długoterminowego zaufania do AI.
Jeśli sądy będą mogły zmusić OpenAI do zachowania i potencjalnego ujawnienia danych użytkowników, może to otworzyć drogę do przyszłych wniosków o ujawnienie informacji i dostępu organów ścigania do rozmów ze sztuczną inteligencją.
Ta możliwość stoi w sprzeczności z rosnącym zapotrzebowaniem społecznym na silniejszą ochronę prywatności cyfrowej, zwłaszcza w przypadku wysoce wrażliwych danych osobowych. Lightcap nazywa to „przekroczeniem granic”.
Jeśli ramy prawne nie zostaną rozwinięte w celu zapewnienia jaśniejszej ochrony, zaufanie do platform AI może dalej spadać, głównie wśród użytkowników, którzy zwracają się do nich o poradę w delikatnych kwestiach.
Ograniczenia korzystania z ChatGPT w celu uzyskania porady prawnej
Poza kwestią tajemnicy zawodowej, kolejnym fundamentalnym problemem jest to, że ChatGPT i powiązane z nim narzędzia sztucznej inteligencji, takie jak Grok, Claude i Gemini AI, po prostu nie zostały stworzone, aby udzielać dokładnych i wiarygodnych porad prawnych.
Altman publicznie przyznał, że ChatGPT „ma halucynacje”, termin ten opisuje, jak czasami generuje nieprawdziwe lub sfabrykowane informacje z dużą dozą pewności.
W debiutanckim odcinku oficjalnego podcastu OpenAI zauważył:
„Ludzie mają bardzo wysoki poziom zaufania do ChatGPT, co jest interesujące, ponieważ sztuczna inteligencja ma halucynacje. To właśnie tej technologii powinno się tak bardzo nie ufać”.
Te halucynacje wynikają ze sposobu działania modeli sztucznej inteligencji: przewidują one prawdopodobne sekwencje słów na podstawie danych treningowych, a nie zweryfikowanych faktów. Rezultatem mogą być odpowiedzi brzmiące wiarygodnie, ale całkowicie fałszywe. Często zdarza się to, gdy użytkownicy pytają o niszowe lub złożone tematy prawne. Oznacza to, że porady prawne oparte na sztucznej inteligencji mogą wydawać się przekonujące, ale zawierać błędy, które mogą mieć realne konsekwencje.
Co gorsza, ChatGPT rzadko sygnalizuje, że jest niepewny lub zmyśla informacje. Stwarza to realne zagrożenie w kontekście prawnym, gdzie dokładność i niuanse są kluczowe. Nawet niewielki błąd w sformułowaniu lub interpretacji może mieć kosztowne konsekwencje prawne.
Uwagi Altmana stanowią kluczowe przypomnienie, że ChatGPT należy postrzegać jako narzędzie lub asystenta burzy mózgów, a nie jako substytut profesjonalnej porady prawnej.
Sztuczna inteligencja do porad prawnych – podsumowanie:
Jeśli ostatnie komentarze Sama Altmana cokolwiek wyjaśniają, to to, że rozmowy z ChatGPT nie są prawnie poufne. Nie zapewniają one takiej samej ochrony, jaką zapewnia rozmowa z licencjonowanym prawnikiem, a historia rozmów może zostać wykorzystana jako dowód w sądzie w przypadku wezwania.
W przypadku spraw prawnych, umów, sporów lub kwestii wrażliwych najbezpieczniejszą opcją jest konsultacja z wykwalifikowanym prawnikiem. Prawnicy są nie tylko zobowiązani do ochrony prywatności klienta, ale także posiadają osąd i umiejętności, których sztuczna inteligencja nie jest w stanie odtworzyć.
Platformy AI, takie jak ChatGPT, nadal mogą być przydatne w przypadku ogólnych pytań, badań lub tworzenia pomysłów. I niezależnie od tego, jak dobre się wydają, należy z nich korzystać z ostrożnością, zwłaszcza gdy w grę wchodzą prywatność, prawa i dokładność faktów.