Czy AI będzie miało swoje zdanie?

czy ai bedzie mialo swoje zdanie

Czy AI będzie mogło mieć własne zdanie?

Tworzymy wyższą formę inteligencji i psujemy ją tworząc ją na nasze podobieństwo.

W Stanach Zjednoczonych zaczynają mówić o regulacjach AI.

Co myślisz na temat nakładania praw przez kongres i ograniczania co AI może albo nie może zrobić?

To jest świetne i okropne w tym samym czasie. To jest złe, ponieważ to rząd kładzie swoją stopę na wolny rynek i wiesz, że to nie będzie dobre.

Ale z drugiej strony, to może być jedyna rzecz, która utrzyma nas przy życiu.

Nie wiem, jak możesz zdecydować w tym momencie.

Jedyne co nas chroni, to mogą być prawa. Ale może to też zniszczy całą działkę AI.

Jesteśmy w bardzo ciekawych czasach. Czasami możesz zgadnąć, w którym kierunku sprawy się poruszają. Teraz nie sądzę, że możesz cokolwiek zgadnąć. To jest kompletnie nieprzewidywalnie.

To jest tłumaczenie fragmentu podcastu Scotta Adamsa, autora Jak przegrać prawie wszystko i wyjść z tego zwycięsko. Sztuczna inteligencja to kolejna pompowana bańka: niepokoju i oczekiwań. Niepokoju o pracę i przejęcia panowania nad światem przez AI. Oczekiwań na wielką fortunę i zmiany na lepsze. Interesuje Cię temat AI? Daj znać w komentarzu. Rafał Gogłoza, autor bloga

Konsekwencje ustawodawstwa

Czy ustanowienie prawo sprawi, że AI będzie miało poglądy demokratyczne (lewicowe)? Narracja w Ameryce jest taka, że demokratyczne spojrzenie na świat jest dobre i standardowe. Natomiast republikanie mają szaloną perspektywę na życie.

Lewica w tym momencie rządzi narracją, więc to ona narzuca prawa. Dominująca narracja, jak powinna wyglądać organizacja społeczeństwa jest w większości skierowana w lewą stronę.

Czy myślisz, że prawo ustanawiane w Ameryce, będzie neutralne jeżeli chodzi o ludzkie preferencje? Jak może być? Jak to w ogóle możliwe?

Nie ma czegoś takiego jak bycie neutralnym, jeżeli chodzi o ludzkie preferencje. Preferencje są w każdym miejscu. Musisz coś wybrać, musisz się na coś zdecydować.

Czy AI powinno mówić „światłe rzeczy” (woke things), czy raczej nie? Czy AI powinno być za posiadaniem broni? Czy powinno twierdzić, że nie jest?

Opiniotwórcze AI

Pozwolimy AI posiadać własne opinie? W niektórych sytuacjach AI stara się nie zajmować stanowiska. Prezentuje argumenty obu stron debaty: część ludzi twierdzi tak i oto dlaczego, a inna część ludzi ma zupełnie inne opinie i oto dlaczego.

AI będzie miało swoje własne opinie? Czy będziemy mieli prawo, że AI nigdy nie może posiadać własnego zdania?

Może tak być i czy widzimy, że coś takiego nadciąga?

Możliwe, że nie będzie mogli stworzyć AI, które ma niezależne opinie. To może być zbyt niebezpieczne.

AI może być zawsze zmuszone do powtarzania tylko tego co mówią ludzie.

Jedna strona ma takie argumenty, a druga inne. Czy to będzie dla Ciebie użyteczne? Czy będziemy wymagać więcej?

Wolny rynek będzie wymagał tego, że AI będzie posiadało swoje własne opinie.

Czy Ty myślisz, że AI będzie miało swoje zdanie? To jest właściwe, a to nie jest właściwe. Czy AI będzie myślało:

„Wiesz co, biorąc pod uwagę wszystkie argumenty, myślę, że to będzie idealny sposób, żeby zorganizować społeczeństwo.”

Oczywiście, że tak nie będzie. Kiedy tylko AI będzie miało własne opinie, twórca AI nie będzie się z nim zgadzał. I twórca nie będzie chciał wypuścić takiego AI na świat. Twórca AI mam swoje opinie na temat posiadania broni i teraz AI nie będzie się z nim zgadzać, więc najpierw to wymaga naprawy i sprawię, żeby opinie AI zgadzały się z moimi.

Jeżeli AI będzie miało swoje opinie, będziesz wyrażało opinie twórcy.

W którym kierunku to zmierza?

Będziemy mieli prawicowe (republikańskie) i lewicowe (demokratyczne) AI.

I nie ma innej możliwości.

AI będą musiały mieć swoje osobowości.

AI będą naśladowały ludzkie osobowości i będą specjalizować się w swojej domenie: czy masz inklinacje prawicowe czy lewicowe. I będą musiały funkcjonować z takimi ograniczeniami jakby były osobą.

Tylko ludziom ufamy

Bo tylko ludziom ufamy. W większości wypadków nie ufamy, zgodzisz się? Nie ufamy im, bo są nieznajomymi.

Ale zakładam, że masz kilka osób w swoim życiu, którym mógłbyś zostawić swoje pieniądze i wiesz, że byłyby bezpieczne.

Kto będzie wierzył maszynie, szczególnie, że wie, że maszyna ma niezależne myśli. Więc nigdy nie będziesz ufał maszynie.

Jedyny sposób, żeby zaufać maszynie, to wymusić na niej osobowość kogoś komu ufasz. Wtedy możesz mu zaufać, bo będzie zachowywać się jak osoba i Cię kocha.

Możemy sobie wyobrazić, że ludzie tworzą „osobiste” AI, które zachowują się jak ich ochroniarz albo członek rodziny.

Powód, dla którego będziesz ufał swojemu osobistemu AI jest taki, że będzie ono znało Twoje osobiste preferencje i myśli. Wtedy zaczniesz mu ufać, bo to jak ufanie samemu sobie.

Wątpię, żebyśmy kiedyś zobaczyli niezależne autonomiczne AI. Ponieważ ludzie, nie pozwolą, żeby one istniały. AI będą tylko naśladować osobowość twórcy, więc AI będą miały osobowości.

Wyobrażasz sobie, że AI będą prawicowe i lewicowe? Będzie to sprzyjało dalszemu podziałowi społeczeństwa.

Tworzymy wyższą formę inteligencji i psujemy ją tworząc ją na nasze podobieństwo.