„Wszystko, co kochamy w cywilizacji, jest produktem inteligencji, więc wzmocnienie naszej ludzkiej inteligencji za pomocą sztucznej inteligencji może pomóc w rozwoju cywilizacji, jak nigdy dotąd – o ile uda nam się utrzymać korzystną technologię”. Max Tegmark, prezes Future of Life Institute

 

CO TO JEST AI?

 

Od SIRI po samochody samojezdne, sztuczna inteligencja (AI) rozwija się bardzo szybko. Podczas gdy science fiction często przedstawia AI jako roboty o cechach podobnych do ludzkich, AI może obejmować wszystko, od algorytmów wyszukiwania Google, przez superkomputer IBM, po broń autonomiczną.

Sztuczna inteligencja jest dziś właściwie znana jako wąska sztuczna inteligencja (lub słaba sztuczna inteligencja), ponieważ jest zaprojektowana do wykonywania wąskiego zakresu zadań (np. Tylko rozpoznawanie twarzy lub tylko wyszukiwanie w Internecie lub tylko prowadzenie samochodu). Jednak długoterminowym celem wielu badaczy jest stworzenie ogólnej sztucznej inteligencji (AGI lub silnej AI). Podczas gdy wąska sztuczna inteligencja może przewyższać ludzi w jakimkolwiek konkretnym zadaniu, np. Grać w szachy lub rozwiązywać równania, AGI przewyższa ludzi w prawie każdym zadaniu poznawczym.

 

 

usługi it warszawa

BEZPIECZEŃSTWO SZTUCZNEJ INTELIGENCJI

 

W tej chwili cel utrzymania korzystnego wpływu AI na społeczeństwo, motywuje badania w wielu obszarach, od ekonomii i prawa po tematy techniczne, takie jak weryfikacja, ważność, bezpieczeństwo i kontrola. Podczas gdy laptop może ulec awarii lub zostać zhakowany, może być czymś więcej niż drobną uciążliwością, z kolei większe niebezpieczeństwo stwarza technologia taka jak system AI, który robi to co chcesz. Kontroluje samochód, samolot, rozrusznik serca, automatyczny handel  lub sieć energetyczną. Kolejnym krótkoterminowym wyzwaniem jest zapobieganie niszczycielskiemu wyścigowi zbrojeń w śmiercionośnej autonomicznej broni.

 

W dłuższej perspektywie ważne jest pytanie, co się stanie, jeśli poszukiwanie silnej sztucznej inteligencji zakończy się sukcesem, a system AI stanie się lepszy od ludzi we wszystkich zadaniach poznawczych. Jak wskazał I.J. Dobry w 1965 r. Projektowanie inteligentniejszych systemów AI jest zadaniem poznawczym. Taki system mógłby potencjalnie ulec samodoskonaleniu, powodując eksplozję inteligencji, pozostawiając ludzki intelekt daleko w tyle. Dzięki wynalezieniu rewolucyjnych nowych technologii taki superinteligium może pomóc nam w zwalczaniu wojny, chorób i ubóstwa, a zatem stworzenie silnej AI może być największym wydarzeniem w historii ludzkości. Niektórzy eksperci wyrazili jednak zaniepokojenie, że może to być również ostatni, chyba że nauczymy się dopasowywać cele AI do naszych, zanim stanie się ona nadinteligentna.

Są tacy, którzy kwestionują to, czy silna sztuczna inteligencja zostanie kiedykolwiek osiągnięta, a inni twierdzą, że stworzenie superinteligentnej sztucznej inteligencji na pewno będzie korzystne.

sztuczna inteligencja

DLACZEGO AI MOŻE OKAZAĆ SIĘ NIEBEZPIECZNA?

 

Większość badaczy zgadza się, że nadinteligentna sztuczna inteligencja raczej nie przejawia ludzkich emocji, takich jak miłość czy nienawiść, i nie ma powodu, aby oczekiwać, że sztuczna inteligencja stanie się celowo życzliwa lub wroga. Zamiast tego, rozważając, w jaki sposób sztuczna inteligencja może stać się zagrożeniem, eksperci sądzą, że najprawdopodobniejsze są dwa scenariusze:

Sztuczna inteligencja jest zaprogramowana do robienia czegoś niszczycielskiego: broń autonomiczna to systemy sztucznej inteligencji zaprogramowane do zabijania. W rękach niewłaściwej osoby broń ta może łatwo spowodować masowe straty. Ponadto wyścig zbrojeń AI może nieumyślnie doprowadzić do wojny AI, która również spowoduje masowe straty. Aby uniknąć udaremnienia ataku przez wroga, broń ta byłaby niezwykle trudna do zwykłego „wyłączenia”, a ludzie prawdopodobnie straciliby kontrolę nad taką sytuacją. Ryzyko to występuje nawet przy wąskiej sztucznej inteligencji, ale rośnie wraz ze wzrostem poziomu inteligencji AI i autonomii.

 

Sztuczna inteligencja jest zaprogramowana do robienia czegoś pożytecznego, ale rozwija destrukcyjną metodę osiągnięcia swojego celu: może się to zdarzyć, gdy nie uda nam się w pełni dopasować celów AI do naszych, co jest uderzająco trudne. Jeśli poprosisz posłuszny inteligentny samochód, aby zabrał cię na lotnisko tak szybko, jak to możliwe, może w tym celu łamać prawo drogowe i pokryć wymiocinami, nie robiąc tego, co chciałeś, ale dosłownie tego, o co prosiłeś. Jeśli superinteligentnemu systemowi zostanie powierzone ambitne przedsięwzięcie geoinżynierii, może siać spustoszenie w naszym ekosystemie jako efekt uboczny i postrzegać ludzkie próby powstrzymania go jako zagrożenia, które należy powstrzymać.

Jak pokazują te przykłady, obawą przed zaawansowaną sztuczną inteligencją nie jest wrogość, ale kompetencja. Super-inteligentna sztuczna inteligencja będzie wyjątkowo dobra w osiąganiu swoich celów, a jeśli te cele nie będą zgodne z naszymi, mamy problem. Prawdopodobnie nie jesteś złym nienawidzącym mrówkami człowiekiem, który wchodzi na mrówki ze złości, ale jeśli kierujesz projektem hydroelektrycznej elektrowni i w regionie istnieje mrowisko do zalania, szkoda dla mrówek. Kluczowym celem badań nad bezpieczeństwem AI jest nigdy nie umieszczanie ludzkości w pozycji tych mrówek.

 

 

SKĄD BIORĄ SIĘ WĄTPLIWOŚCI DOTYCZĄCE AI?

 

Stephen Hawking, Elon Musk, Steve Wozniak, Bill Gates i wiele innych wielkich nazwisk w nauce i technologii wyrazili ostatnio zaniepokojenie w mediach i publicznych listach na temat zagrożeń związanych z AI, do których dołącza wielu wiodących badaczy sztucznej inteligencji. Dlaczego temat pojawia się nagle w nagłówkach?

Pomysł, że poszukiwanie silnej sztucznej inteligencji ostatecznie się powiedzie, od dawna uważany jest za science fiction. Jednak dzięki ostatnim przełomom udało się osiągnąć wiele kamieni milowych sztucznej inteligencji, które eksperci uważali za nieosiągalne zaledwie pięć lat temu, co sprawia, że ​​wielu specjalistów poważnie traktuje możliwość superinteligencji w ciągu naszego życia. Podczas gdy niektórzy eksperci wciąż sądzą, że sztuczna inteligencja na poziomie ludzkim znajduje się w zasięgu setek lat badań, większość uczonych AI na konferencji w Portoryko w 2015 r. prognozowała, że ​​nastąpi to przed 2060 r. Ponieważ ukończenie wymaganych badań bezpieczeństwa może potrwać dekady, rozsądnie jest rozpocząć je już teraz .

Ponieważ sztuczna inteligencja może stać się bardziej inteligentna niż jakikolwiek człowiek, nie mamy pewnego sposobu przewidzenia jej zachowania. Nie możemy wykorzystać dotychczasowych osiągnięć technologicznych jako podstawy, ponieważ nigdy nie stworzyliśmy niczego, co mogłoby, świadomie lub nieświadomie, przechytrzyć nas. Najlepszym przykładem tego, z czym moglibyśmy się zmierzyć, może być nasza ewolucja. Ludzie kontrolują teraz planetę, nie dlatego, że jesteśmy najsilniejsi, najszybsi lub najwięksi, ale dlatego, że jesteśmy najmądrzejsi. Jeśli nie jesteśmy już najmądrzejsi, czy jesteśmy pewni, że zachowamy kontrolę?

Stanowisko wielu jest takie, że nasza cywilizacja będzie się rozwijać, dopóki wygramy wyścig między rosnącą potęgą technologii a mądrością, z jaką nią zarządzamy. W przypadku technologii AI uważa się, że ​​najlepszym sposobem na wygraną w tym wyścigu nie jest hamowanie tego pierwszego, ale przyspieszenie drugiego, poprzez wspieranie badań nad bezpieczeństwem AI.

sztuczna inteligencja

NAJWAŻNIEJSZE MITY O ZAAWANSOWANEJ AI

 

Odbywa się urzekająca rozmowa na temat przyszłości sztucznej inteligencji i jej znaczenia dla ludzkości. Istnieją fascynujące kontrowersje, w których czołowi eksperci na świecie się nie zgadzają, takie jak: przyszły wpływ AI na rynek pracy; czy / kiedy zostanie opracowana sztuczna inteligencja na poziomie ludzkim; czy doprowadzi to do eksplozji wywiadu; i czy jest to coś, co powinniśmy powitać, czy się bać. Ale jest też wiele przykładów nudnych pseudo-kontrowersji spowodowanych przez nieporozumienia i rozmowy między sobą. Aby pomóc nam skupić się na interesujących kontrowersjach i otwartych pytaniach – a nie na nieporozumieniach – wyjaśnijmy niektóre z najczęstszych mitów.

 

MITY CZASOWE

 

Pierwszy mit dotyczy osi czasu: ile czasu zajmie, zanim maszyny znacznie zastąpią inteligencję na poziomie ludzkim? Powszechnym nieporozumieniem jest to, że znamy odpowiedź z wielką pewnością.

Jednym z popularnych mitów jest to, że wiemy, że w tym wieku dostaniemy nadludzką sztuczną inteligencję. W rzeczywistości historia jest pełna technologicznego przekoloryzowania. Gdzie są te elektrownie termojądrowe i latające samochody, które obiecaliśmy, że do tej pory będziemy mieć? W przeszłości sztuczna inteligencja była wielokrotnie przewartościowana, nawet przez niektórych założycieli tej dziedziny. Na przykład John McCarthy (który ukuł termin „sztuczna inteligencja”), Marvin Minsky, Nathaniel Rochester i Claude Shannon napisali tę zbyt optymistyczną prognozę dotyczącą tego, co można osiągnąć w ciągu dwóch miesięcy za pomocą komputerów z epoki kamienia: „Proponujemy, aby 2 miesięczne badanie sztucznej inteligencji zostało przeprowadzone latem 1956 r. W Dartmouth College […] Podjęto próbę znalezienia sposobu, w jaki maszyny mogą używać języka, tworzyć abstrakcje i koncepcje, rozwiązywać rodzaje problemów zarezerwowanych obecnie dla ludzi, oraz poprawić się. Uważamy, że można dokonać znacznego postępu w zakresie jednego lub więcej z tych problemów, jeśli wybrana grupa naukowców będzie starannie razem pracować tym latem. ”

Z drugiej strony popularnym kontr-mitem jest to, że wiemy, że w tym wieku nie dostaniemy nadludzkiej sztucznej inteligencji. Naukowcy dokonali wielu szacunków dotyczących tego, jak daleko jesteśmy od nadludzkiej sztucznej inteligencji, ale nie możemy z całą pewnością powiedzieć, że prawdopodobieństwo wynosi zero w tym stuleciu, biorąc pod uwagę fatalne wyniki takich prognoz techniczno-sceptycznych. Na przykład Ernest Rutherford, prawdopodobnie największy fizyk nuklearny swoich czasów, powiedział w 1933 r. – niecałe 24 godziny przed wynalezieniem przez Szilarda reakcji nuklearno-łańcuchowej – że energia jądrowa to „bimber”. A astronom Royal Richard Woolley nazwał podróż międzyplanetarną „całkowitym dnem ”w 1956 roku. Najbardziej ekstremalną formą tego mitu jest to, że nadludzka sztuczna inteligencja nigdy nie przybędzie, ponieważ jest fizycznie niemożliwa. Jednak fizycy wiedzą, że mózg składa się z kwarków i elektronów ułożonych tak, aby działały jak potężny komputer i że nie ma prawa fizyki, które uniemożliwiałoby nam budowanie jeszcze bardziej inteligentnych sieci kwarków.

Przeprowadzono wiele badań, w których pytano badaczy sztucznej inteligencji, za ile lat sądzą, że będziemy mieli sztuczną inteligencję na poziomie ludzkim z prawdopodobieństwem co najmniej 50%. Wszystkie te ankiety mają ten sam wniosek: wiodący światowi eksperci nie zgadzają się, więc po prostu nie wiemy. Na przykład w ankiecie przeprowadzonej przez naukowców zajmujących się sztuczną inteligencją podczas konferencji AI w Portoryko w 2015 r. Średnia (mediana) odpowiedzi wskazywała rok 2045, ale niektórzy badacze twierdziła że jest to kwestia setek lat lub dłużej.

Istnieje również powiązany mit, że ludzie, którzy martwią się sztuczną inteligencją, myślą, że to już za kilka lat. W rzeczywistości większość zarejestrowanych osób martwiących się o nadludzką sztuczną inteligencję przypuszcza, że ​​dzieli ich jeszcze co najmniej dekady. Twierdzą jednak, że dopóki nie jesteśmy w 100% pewni, że tak się nie stanie w tym stuleciu, rozsądnie jest rozpocząć badania nad bezpieczeństwem, aby przygotować się na ewentualność. Wiele problemów bezpieczeństwa związanych z AI na poziomie ludzkim jest tak trudnych, że ich rozwiązanie może zająć dekady. Rozsądnie jest więc zacząć je teraz badać, a nie noc, zanim niektórzy programiści pijący Red Bulla zdecydują się je włączyć.

 

MITY BARDZIEJ KONTROWERSYJNE

 

Innym powszechnym nieporozumieniem jest to, że jedynymi osobami, które żywią obawy dotyczące AI i popierają badania nad bezpieczeństwem AI, są luddyści, którzy niewiele wiedzą o AI. Kiedy Stuart Russell, autor standardowego podręcznika AI, wspomniał o tym podczas swojego przemówienia w Puerto Rico, publiczność śmiała się głośno. Powiązanym nieporozumieniem jest to, że wspieranie badań nad bezpieczeństwem sztucznej inteligencji jest niezwykle kontrowersyjne. W rzeczywistości, aby wesprzeć skromną inwestycję w badania nad bezpieczeństwem AI, ludzie nie muszą być przekonani, że ryzyko jest wysokie, a jedynie nie bez znaczenia – podobnie jak skromna inwestycja w ubezpieczenie domu jest uzasadniona nieistotnym prawdopodobieństwem spalenia się posiadłości.

Być może media sprawiły, że debata na temat bezpieczeństwa AI wydaje się bardziej kontrowersyjna, niż jest w rzeczywistości. W końcu strach sprzedaje się, a artykuły wykorzystujące cytaty spoza kontekstu, by ogłosić nadciągającą zagładę, mogą generować więcej kliknięć niż niuansowe i zrównoważone. W rezultacie dwie osoby, które znają się tylko z cytatów medialnych, prawdopodobnie będą myśleć, że nie zgadzają się bardziej niż w rzeczywistości. Na przykład sceptycy technologiczni, którzy czytają tylko o opinii wygłoszonej przez Billa Gatesa w brytyjskim tabloidzie, mogą błędnie sądzić, że Gates uważa, że ​​superinteligencja jest bliska. Podobnie, ktoś z ruchu korzystnej sztucznej inteligencji, który nie wie nic o opinii Andrew Nga, z wyjątkiem cytatu o przeludnieniu na Marsie, może błędnie myśleć, że nie dba on o bezpieczeństwo AI, podczas gdy w rzeczywistości tak jest.

 

sztuczna inteligencja

MITY DOTYCZĄCE RYZYKA OGÓLNEJ AI

 

Wielu badaczy sztucznej inteligencji przewraca oczami, widząc ten nagłówek: „Stephen Hawking ostrzega, że ​​powstanie robotów może być katastrofalne dla ludzkości”. Zazwyczaj artykułom tym towarzyszy wyglądający agresywnie robot z bronią, i sugerują, że powinniśmy się martwić, że roboty wzniosą się i nas zabiją, ponieważ stały się świadome i / lub złe. Mówiąc prościej, takie artykuły są naprawdę imponujące, ponieważ zwięźle podsumowują scenariusz, o który badacze AI nie martwią się. Ten scenariusz łączy aż trzy osobne nieporozumienia: troskę o świadomość, zło i roboty.

Jeśli jedziesz drogą, masz subiektywne odczucie kolorów, dźwięków itp. Ale czy samochód samojezdny ma subiektywne wrażenia? Chociaż ta tajemnica świadomości jest interesująca sama w sobie, nie ma znaczenia dla ryzyka AI. Nie ma powodu, dla którego mielibyśmy traktować AI jako subiektywną istotę, która jest zła lub dobra. Jest to narzędzie pozbawione uczucia korzyści. Nie ma własnych celów i planów. Wykonuje tyko wolę człowieka.

Strach przed maszynami zmieniającymi się w złe istoty to kolejny śledź. Prawdziwym zmartwieniem nie jest wrogość, ale kompetencja. Nadinteligentna sztuczna inteligencja jest z definicji bardzo dobra w osiąganiu swoich celów, bez względu na to, jakie one mogą być, więc musimy upewnić się, że jej cele są zgodne z naszymi. Ludzie na ogół nie nienawidzą mrówek, ale jesteśmy bardziej inteligentni niż one – więc jeśli chcemy zbudować zaporę hydroelektryczną i tam jest mrowisko…wielka szkoda dla mrówek. Ruch korzystnej sztucznej inteligencji chce uniknąć postawienia ludzkości na pozycji tychże mrówek.

Współczuję Rodneyowi Brooksowi i innym pionierom robotyki, którzy czują się niesprawiedliwie demonizowani przez przerażające tabloidy, ponieważ niektórzy dziennikarze wydają się obsesyjnie skupieni na robotach i ozdabiają wiele swoich artykułów złymi metalowymi potworami o błyszczących czerwonych oczach. W rzeczywistości głównym problemem ruchu korzystnej sztucznej inteligencji nie są roboty, ale sama inteligencja: w szczególności inteligencja, której cele są niezgodne z naszymi. Aby sprawić nam kłopoty, taka niedopasowana nadludzka inteligencja nie potrzebuje zrobotyzowanego ciała, a jedynie połączenia internetowego – może to umożliwić przechytrzenie rynków finansowych, wymyślenie ludzkich badaczy, manipulowanie ludzkimi przywódcami i opracowanie broni, której nawet nie rozumiemy. Nawet jeśli budowanie robotów byłoby fizycznie niemożliwe, super-inteligentna i bardzo bogata sztuczna inteligencja mogłaby łatwo zapłacić lub zmanipulować wielu ludzi, aby nieświadomie wypełniali swoje polecenia.

Błędny obraz robota jest związany z mitem, że maszyny nie mogą kontrolować ludzi. Inteligencja umożliwia kontrolę: ludzie kontrolują tygrysy nie dlatego, że jesteśmy silniejsi, ale dlatego, że jesteśmy mądrzejsi. Oznacza to, że jeśli scedujemy naszą pozycję jako najmądrzejszej na naszej planecie, możliwe, że możemy również scedować kontrolę.

 

PODSUMOWANIE

 

Nie marnowanie czasu na wyżej wspomniane nieporozumienia pozwala nam skupić się na prawdziwych i interesujących kontrowersjach, w których nawet eksperci się nie zgadzają. Jakiej przyszłości chcesz? Czy powinniśmy opracować śmiercionośną broń autonomiczną? Co chciałbyś zrobić z automatyzacją pracy? Jakie porady dotyczące kariery dałbyś dzisiejszym dzieciom? Czy wolisz nowe miejsca pracy zastępujące stare, czy społeczeństwo bezrobotne, w którym każdy cieszy się życiem wypoczynkowym i bogactwem produkowanym maszynowo? Czy w dalszej części chciałbyś, abyśmy stworzyli superinteligentne życie i rozprzestrzeniły je w naszym kosmosie? Czy będziemy kontrolować inteligentne maszyny, czy one będą kontrolować nas? Czy inteligentne maszyny nas zastąpią, będą z nami współistnieć, czy też połączą się z nami? Co to znaczy być człowiekiem w dobie sztucznej inteligencji? Co chciałbyś, żeby to oznaczało i jak możemy sprawić, aby przyszłość była taka? Dołącz do rozmowy!

 

Bez kategorii Sztuczna Inteligencja – obiektywne fakty, zagrożenia i potencjał (2020)