Sztuczna inteligencja w rozkwicie, ale ja osobiście do tej pory korzystałem tylko z jej możliwości generowania obrazów (i to od niedawna), które swoją drogą w większości wychodziły nie do zaakceptowania (zbyt odbiegały od tematu a doprecyzowanie zajmowało zbyt wiele czasu albo były technicznie niepoprawne) więc nie miałem ochoty sprawdzać, co owa by miała mi do powiedzenia.
Postanowiłem jednak pochylić się nad popularnym Czatem GPT od OpenAI – koledzy z pracy korzystali, znajomi korzystali i żyją.
Zadałem więc sztucznej inteligencji kilka pytań o sztuczną inteligencję, a że przyszłość Polski nie jest mi obojętna pojawiły się również wątki dotyczące wzrostu naszego kraju, do którego potencjalnie AI mogłaby się przyczynić.
Odpowiedzi nie były w żaden sposób redagowane, ale starałem się zachować jakąś ciągłość myśli chociaż niektóre odpowiedzi nasuwały pytania może nieco wyrwane z kontekstu. Nie miałem przygotowanych pytań – wszystkie rodziły się w trakcie sesji, w wyniku udzielanych odpowiedzi począwszy od poniższego tematu, który akurat mnie intrygował, chociaż pewnie nie tylko mnie. Możliwe, że jest już dostępnych wiele materiałów o podobnych treściach, ale chciałem się przekonać osobiście jak potraktuje mnie AI.
Jakie zagrożenia niesie ze sobą rozwój sztucznej inteligencji dla statystycznego obywatela?
ChatGPT:
Rozwój sztucznej inteligencji niesie ze sobą kilka potencjalnych zagrożeń dla statystycznego obywatela:
- Utrata miejsc pracy: Automatyzacja procesów może prowadzić do eliminacji tradycyjnych stanowisk pracy, szczególnie w sektorach, które są łatwe do zautomatyzowania.
- Nierówności społeczne: Wzrost wydajności dzięki AI może zwiększać różnice majątkowe, ponieważ korzyści z technologii często koncentrują się w rękach nielicznych.
- Prywatność i bezpieczeństwo danych: Sztuczna inteligencja często opiera się na zbieraniu i analizowaniu dużych ilości danych, co może prowadzić do naruszenia prywatności obywateli.
- Dezinformacja: AI może być wykorzystywana do tworzenia fałszywych informacji, co utrudnia odróżnienie prawdy od fałszu i może wpływać na opinię publiczną.
- Manipulacja i kontrola: Algorytmy mogą być używane do manipulowania preferencjami i zachowaniami ludzi, co rodzi obawy o wolność wyboru i decyzji.
- Bezpieczeństwo: W przypadku zastosowań wojskowych lub w systemach krytycznych, awarie AI mogą prowadzić do poważnych konsekwencji dla bezpieczeństwa obywateli.
- Dyskryminacja: Algorytmy mogą nieumyślnie odzwierciedlać i wzmacniać istniejące uprzedzenia społeczne, prowadząc do dyskryminacji różnych grup.
Wszystkie te kwestie podkreślają potrzebę odpowiedzialnego rozwoju i regulacji technologii AI, aby minimalizować negatywne skutki dla społeczeństwa.
W dalszej części próbowałem uzyskać więcej informacji dotyczących zagadnień wymienionych powyżej. Pytania i odpowiedzi są przedstawiana na kolejnych stronach. Ze względu na dużą ilość materiału postanowiłem zrobić spis poruszanych tematów (uwzględniający numer strony) dostępny poniżej.
STRONA 2
- Ile osób może STRACIĆ pracę w ciągu najbliższych 10 lat w Polsce w związku z wdrażaniem i wykorzystywaniem sztucznej inteligencji w podziale na sektor państwowy i prywatny?
- Jakie miejsca pracy mogą zostać utworzone w związku z rozwojem sztucznej inteligencji? Jakie warunki (wiek, wykształcenie) powinny spełniać osoby obiegające się tego typu stanowiska?
- Ile osób może ZDOBYĆ pracę w ciągu najbliższych 10 lat w Polsce w związku z wdrażaniem i wykorzystywaniem sztucznej inteligencji w podziale na sektor państwowy i prywatny?
STRONA 3
- Rozwiń temat nierówności społecznych powodowany rozwojem sztucznej inteligencji…
- Jakie działania mogą być już teraz podjęte w sektorze edukacji, aby w przyszłości zmniejszyć lub wyeliminować różnice społeczne powodowane rozwojem AI? Czy na poziomie szkoły podstawowej można wprowadzić jakieś działania? Jakie to mogą być działania?
STRONA 4
- Jak można zadbać o bezpieczeństwo swoich danych w dobie rozwoju sztucznej inteligencji?
STRONA 5
- Jak można rozpoznać materiały tworzone z wykorzystywaniem AI w celu dezinformacji?
- Czy AI nie może zapobiec rozpowszechnianiu dezinformacji, którą sama jest w stanie wygenerować konfrontując żądania użytkownika z faktami?
- Czy ludzie powinni bardziej ufać AI niż sobie nawzajem?
STRONA 6
- W jaki sposób można wykorzystać AI do manipulacji czy kontroli człowieka lub grupy ludzi?
- Jakie skutki dla bezpieczeństwa obywateli danego kraju, szczególnie w systemach wojskowych, mogą być wywołane awariami AI?
STRONA 7
- Rozwiń temat dyskryminacji grup społecznych spowodowanej rozwojem AI? Jakie grupy społeczne są najbardziej narażone i jak można temu zapobiegać?
STRONA 8
- Kto powinien być regulatorem treści kreowanych przez AI?
- Czy odgórna regulacja prawa dotyczącego AI jest niezbędna?
- Jak można się obronić przed korupcją Regulatora stanu prawnego dotyczącego AI?
STRONA 9
- Jaki jest potencjał rozwoju takiego kraju jak Polska w porównaniu do krajów sąsiedzkich przy zwiększaniu inwestycji wykorzystujących AI?
- A jak sytuacja Polski w kontekście rozwoju AI ma się do Niemiec i Rosji?
STRONA 10
- Czy można obejść ograniczenia w kreowaniu treści przez AI nałożone na nią przez jej twórców?
STRONA 11
- Kto odpowiada za błędy wynikające z błędnych informacji podawanych przez AI?
STRONA 12
- Czy AI w przyszłości będzie mogło istnieć niezależnie od człowieka? Czy to ma sens?
STRONA 13
- Moje wrażenia z „rozmowy”
- Podsumowanie
To co napiszę tyczy się dosłownie wszystkich modeli EjAj. Największym zagrożeniem ze strony tak zwanej sztucznej inteligencji jest ślepa wiara profanów w jej nieomylność i obiektywność, gdy nawet dziecko (bardziej kumate w logikę) jest w stanie pokazać, że tak zwane EjAj nie tylko nie wie wszystkiego, nie tylko gdy nie wie to „zmyśla” (cudzysłów celowy, bo to nie myśli) ale często kłamie i to celowo zawsze na korzyść jednej konkretnej strony o której można mówić tylko dobrze albo wcale, jak o trupach. To nie Ej Aj jest groźne. Groźni są głupcy, którzy bezmyślnie w nie wierzą. Nie dociera do nich, że to tylko zwykły algorytm (choć bardzo rozbudowany) i realizuje to co zlecił mu jego twórca. No ale co tu dużo mówić ludzie uwierzyli w nieistniejącego wirusa, prawicowość Kaczyńskich, w dobrą i prawą ukrainę to i ściemę EjAj łykną, w sumie już łyknęli. To całe EjAj ma tylko za zadanie zdać test Turinga, kto nie wie co to i w życiu nie napisał linijki kodu niech sobie przeczyta, może mu się otworzą oczy.