Niniejszy wpis stanowi manifest wobec AI. Opisuję metody, których wprowadzenie rozwiązałoby powstające problemy związane z funkcjonowaniem w świecie w zgodzie ze wszechogarniającą Sztuczną Inteligencją. W swoim artykule nawiązuje również do wpisów w Mediach Społecznościowych, które w mojej ocenie dotykają poszczególnych omawianych tu zagadnień.

Wprowadzenie: Człowiek co do zasady nie jest dostosowany do funkcjonowania w świecie nadmiaru informacji. Nigdy wcześniej – w toku naszej ewolucji – nie musieliśmy się mierzyć z tyloma bodźcami wokół nas. Jest oczywiste, że człowiek nie jest w stanie przetworzyć informacji docierających do niego, sprawdzić ich rzetelność i wiarygodność. Z drugiej strony pozyskiwanie informacji nigdy nie było tak łatwe. Edukacja w kierunku wyszukiwania informacji jest ważniejsza, niż samo ich posiadanie.

 

1. Jak rozpoznać dzieła produkowane przez sztuczną inteligencję?

Rozwiązanie: Każdy tekst, obraz, film etc. stworzony lub współtworzony przez sztuczną inteligencję, powinien mieć zapis informujący o tym fakcie.

Teksty tworzone przez sztuczną inteligencję mogą zawierać błędy. Co prawda, powstają nowe rozwiązania, które sprawdzają sens treści, dokonują analiz faktów, jednakże na samym końcu drogi użytkownik nie może mieć pewności, czy AI „powiedziało prawdę”. W zależności od modelu, prompta, obszaru tematycznego – zniekształcenia faktów mogą występować w różnym nasileniu.

Dodatkowym problemem jest nierówne traktowanie producentów danych i użytkowników narzędzi. Coraz częściej agencje mediowe decydują się na blokowanie crawler’a Open AI – bo przecież, muszą płacić pracownikom za publikację swoich treści, podczas gdy Open AI tego nie robi. Jednakże nie wszyscy wiedzą o takich możliwościach blokowania, nie wszyscy zdążyli zablokować swoje treści przed wykorzystaniem ich przez narzędzia typu ChatGPT, który już zdążył się nauczyć na produkowanych przez nie treściach. Choć firma Open AI przymierza się do płacenia za pozyskane dane, to jednak stawiając się w roli „eksperta” produkującego treści, pozbawia prawdziwej eksperckości dziennikarzy czy naukowców, którzy spędzają wiele godzin nad przygotowaniem i redakcją tekstu. Z drugiej strony, każdy użytkownik czytający tekst – powinien mieć ograniczone zaufanie do treści wyprodukowanych przez AI. Tym bardziej, że pojawiają się nowe modele bez zahamowań etycznych, sprzedawane w Darknecie. Już dziś treści, które są sponsorowane, są oznaczane jako „reklama” czy „materiał promocyjny” – na portalach, wyszukiwarce Google itp. Dlaczego tak nie robić z treściami produkowanymi przez AI: obrazkami, dźwiękami, artykułami, książkami, scenariuszami filmów – chociażby z szacunku do „dostarczycieli danych” do modeli, którymi może być każdy z nas. Choć istnieją narzędzia rozpoznające dzieła wyprodukowane przez sztuczną inteligencję, nie są one w 100% pewne, a tym samym nie są żadną podstawą (prawną) do takiej weryfikacji.


2. Jak bezpiecznie używać narzędzi opartych o sztuczną inteligencję?

Rozwiązanie: Kontrola danych wsadowych w dedykowanych mikro modelach 

W związku z planami firmy Open AI, która to zamierza skupić się na budowie marketplace’u innych ChatGPTów stworzonych przez użytkowników, powinno się weryfikować dane wsadowe w mniejszych dedykowanych narzędziach – szczególnie w treściach, które mogą być wykorzystywane przez dzieci – np. tych w edukacji i treściach medycznych. Oznacza to, że np. ChatGPT służący do nauki historii, powinien w idealnej sytuacji modelować dane pozyskane z wszystkich dostępnych podręczników historii, artykułów historycznych i książek, co do których mamy pewność, że omawiają aspekty historii, a nie są prywatnymi opiniami czy gorzej, popularnymi koncepcjami „teorii spiskowych”. Tym samym powinny powstać specjalne instytucje kontrolujące najważniejsze obszary wiedzy, manipulowanie którymi, może narazić społeczeństwo na głoszenie propagandy, szerzenie mowy nienawiści i różnicowanie społeczeństwa na zwolenników i przeciwników istnieniu lub nieistnieniu potwierdzonych faktów. Takie modele i wyprodukowane treści powinny posiadać dodatkowe oznaczenie jako oparte na zweryfikowanych danych.


3. Jak uczyć nasze dzieci kontaktów z rówieśnikami w dobie sztucznej inteligencji?

Rozwiązanie: Obowiązkowe zajęcia z komunikacji społecznej

Dzisiejsze rozwiązania technologiczne ograniczają możliwości kontaktów ogólnospołecznych wśród dzieci i młodzieży. Skoro uczeń może uzyskać wiedzę, porozmawiać, a nawet zagrać z botem – pozornie nie potrzebuje kontaktu z innymi ludźmi. Rolą nas, społeczeństwa, jest tworzenie takiego otoczenia dla naszych dzieci, by mogły rozwijać umiejętności społeczne w obszarze komunikacji i tolerancji wobec odmienności tego, co dziecko może uznać jako własny standard. Zajęcia z komunikacji społecznej – prowadzone na każdym etapie edukacji – powinny być obowiązkowe w ogóle zajęć szkolnych.


4. Jak ochronić się przed utratą pracy w dobie sztucznej inteligencji?

Rozwiązanie: Podnoszenie kompetencji w zakresie obsługi programów sztucznej inteligencji

Świat się zmienia. Przyzwyczailiśmy się do patrzenia na społeczeństwa przez pryzmat konfliktu pokoleń. Co jednak gdy konflikt pokoleń jest już na etapie równolatków? Prędkość zmian technologicznych przy jednoczesnym nacisku na zwiększenie rentowności wykonywanych profesji przez pracowników powoduje, że większość z nich nie otrzyma odpowiedniej pomocy (w tym szkoleń) w zakresie samorozwoju w dziedzinie AI. Duża część pracowników niewątpliwie zostanie zastąpiona wkrótce przez agentów sztucznej inteligencji. Aby nie wykluczać ludzi ze świata, należy postawić nacisk na kształcenie – w jaki sposób mogą „pomóc” sztucznej inteligencji efektywniej wykonywać swoją prace. Programy wsparcia powinny mieć charakter programów rządowych, ogólnodostępnych. Jest to inwestycja, która unowocześni społeczeństwo i da odpowiednią stopę zwrotu.


5. Jak powinni uczyć nauczyciele ze świadomością istnienia takich narzędzi jak ChatGPT?

Rozwiązanie: Nauczyciele powinni być przewodnikami po świecie nauki. Powinni współgrać ze sztuczną inteligencją i wykorzystywać ją na lekcjach.

AI dysponuje większym zasobem danych niż nauczyciele. Może dostosować się do potrzeb i preferencji każdego z uczniów indywidualnie.  Może zapamiętywać tok rozumowania ucznia, rozpoznawać rzeczy, z którymi ma kłopot. Tym samym świetnie personalizuje kursy i program nauczania. Nie ma tylko jednego – emocji. Nie rozpoznaje poziomu zmęczenia ucznia, nie zaraża go pasją do nauki. W tym aspekcie nie zastąpi nauczyciela. Rola zawodu nauczyciela powinna się zmienić. Nauczyciel nie musi już przekazywać wiedzy. Uczeń nie powinien jej z drugiej strony nieustannie agregować, skoro, sięgając do kieszeni w przeciągu kilku sekund dostanie odpowiedź na każde zadane pytania. Nauczyciel jednak powinien być przewodnikiem. Jak uczeń zweryfikował wiarygodność informacji, które otrzymał? Czy zgadza się z nimi, czy chciałby polemizować? Rolą nauczyciela zatem jest nauka wyszukiwania, filtrowania i weryfikowania informacji, które uczeń może sam uzyskać. Standardowe lekcje mogłyby być prowadzone z użyciem ChatGPT praktycznie na każdym przedmiocie. Nauczyciel mógłby wyznaczać zadania uczniom, które pozwoliłyby weryfikować uzyskane wyniki. Do tego przewiduje się, że do 2035 roku 70% zawodów przestanie istnieć i zostanie zastąpionych przez inne. Tymczasem uczymy dzieci przygotowując ich do właśnie tych nieistniejących w przyszłości zawodów, „starymi” – nieaktualnymi już metodami.