Kim jest Geoffrey Hinton?

Geoffrey Hinton to brytyjsko-kanadyjski informatyk i psycholog poznawczy, który jest uważany za jednego z ojców chrzestnych sztucznej inteligencji. Jego prace nad sztucznymi sieciami neuronowymi, które są modelami uczenia maszynowego inspirowanymi ludzkim mózgiem, przyczyniły się do znacznego postępu w dziedzinie AI.

Hinton urodził się w 1947 roku w Wimbledonie w Wielkiej Brytanii. W 1970 roku ukończył studia magisterskie z informatyki na Uniwersytecie w Edynburgu, a w 1978 roku doktorat z psychologii poznawczej na Uniwersytecie Kalifornijskim w San Diego.

W latach 80. Hinton zaczął pracować nad sztucznymi sieciami neuronowymi. Jego prace były początkowo lekceważone przez środowisko naukowe, ale w ostatnich latach zyskały uznanie. W 2012 roku Hinton, wraz z Yannem LeCunem i Yoshua Bengio, otrzymał Nagrodę Turinga, która jest uważana za nagrodę Nobla w dziedzinie informatyki.

Prace Hintona pomogły w rozwoju wielu praktycznych zastosowań sztucznej inteligencji, takich jak rozpoznawanie mowy, tłumaczenie języków i przetwarzanie obrazów. Jego prace mają również istotne znaczenie dla badań nad ludzkim mózgiem.

Oto niektóre z najważniejszych osiągnięć Geoffreya Hintona:

  • W latach 80. Hinton wprowadził nowe algorytmy uczenia maszynowego, które pozwoliły na skuteczne uczenie sztucznych sieci neuronowych.
  • W 2006 roku Hinton i jego współpracownicy opracowali nowy typ sieci neuronowych, zwany sieciami głębokimi, które są obecnie wykorzystywane w wielu zastosowaniach AI.
  • W 2012 roku Hinton, LeCun i Bengio opublikowali artykuł, który udokumentował przełom w zakresie uczenia maszynowego, dzięki któremu sztuczne sieci neuronowe stały się znacznie bardziej wydajne.

Geoffrey Hinton jest jednym z najbardziej wpływowych naukowców w dziedzinie sztucznej inteligencji. Jego prace mają fundamentalne znaczenie dla rozwoju AI i mają potencjał do znacznego wpływu na nasze życie.

Wywiad z Geoffreyem Hintonem

Wywiad z Geoffreyem Hintonem – wersja oryginalna

Wywiad z Geoffreyem Hintonem – tłumaczenie

Poniższy tekst jest automatycznym tłumaczeniem transkrypcji tekstu ze strony (z pominięciem niektórych kwestii narratora): www.cbsnews.com/news/geoffrey-hinton-ai-dangers-60-minutes-transcript/

Scott Pelley: Bez względu na to, czy uważasz, że sztuczna inteligencja uratuje świat, czy go zniszczy, masz za co dziękować Geoffreyowi Hintonowi. Hinton, nazywany „Ojcem Chrzestnym AI”, to brytyjski informatyk, którego kontrowersyjne idee pomogły uczynić zaawansowaną sztuczną inteligencję możliwą i tym samym zmieniły świat. Hinton wierzy, że AI przyniesie ogromne korzyści, ale dziś wieczorem ma ostrzeżenie. Mówi, że systemy AI mogą być bardziej inteligentne, niż sądzimy, i istnieje szansa, że ​​maszyny mogą przejąć kontrolę. Co skłoniło nas do zadania pytania:

Scott Pelley: Czy ludzkość wie, co robi?

Geoffrey Hinton: Nie. Myślę, że wchodzimy w okres, w którym po raz pierwszy w historii możemy mieć rzeczy bardziej inteligentne od nas.

Scott Pelley: Uważasz, że mogą rozumieć?

Geoffrey Hinton: Tak.

Scott Pelley: Uważasz, że są inteligentne?

Geoffrey Hinton: Tak.

Scott Pelley: Uważasz, że te systemy mają własne doświadczenia i mogą podejmować decyzje na podstawie tych doświadczeń?

Geoffrey Hinton: Tak, w tym samym sensie co ludzie.

Scott Pelley: Czy są świadome?

Geoffrey Hinton: Myślę, że w tej chwili prawdopodobnie nie mają zbyt dużej samoświadomości. Więc w tym sensie nie sądzę, aby były świadome.

Scott Pelley: Czy będą miały samoświadomość, świadomość?

Geoffrey Hinton: Och, tak.

Scott Pelley: Tak?

Geoffrey Hinton: Och, tak. Myślę, że tak się stanie z czasem.

Scott Pelley: A więc istoty ludzkie będą drugimi najbardziej inteligentnymi istotami na planecie?

Geoffrey Hinton: Tak.

Geoffrey Hinton powiedział nam, że sztuczna inteligencja, którą uruchomił, była wypadkiem zrodzonym z porażki. W latach 70. na Uniwersytecie w Edynburgu marzył o symulowaniu sieci neuronowej na komputerze, po prostu jako narzędzia do tego, co naprawdę studiował – ludzkiego mózgu. Ale wtedy prawie nikt nie myślał, że oprogramowanie może imitować mózg. Jego promotor doktoratu powiedział mu, żeby to porzucił, zanim zrujnuje sobie karierę. Hinton mówi, że nie udało mu się zrozumieć ludzkiego umysłu. Ale długie poszukiwania doprowadziły do ​​sztucznej wersji.

Geoffrey Hinton: Zajęło to znacznie, znacznie dłużej, niż się spodziewałem. Zajęło to około 50 lat, zanim zaczęło dobrze działać, ale w końcu zadziałało dobrze.

Scott Pelley: W którym momencie zdałeś sobie sprawę, że masz rację co do sieci neuronowych, a prawie wszyscy inni się mylili?

Geoffrey Hinton: Zawsze myślałem, że mam rację.

Scott Pelley: Uważasz, że te systemy AI są lepsze w uczeniu się niż ludzki umysł.

Geoffrey Hinton: Myślę, że tak. I w tej chwili są one znacznie mniejsze. Nawet największe chatboty mają tylko około tryliona połączeń. Ludzki mózg ma około 100 trylionów. A jednak w trylionie połączeń w chacbocie wie on znacznie więcej niż ty w swoich stu trylionach połączeń, co sugeruje, że ma znacznie lepszy sposób na wprowadzanie wiedzy do tych połączeń.

— znacznie lepszy sposób zdobywania wiedzy, który nie jest w pełni zrozumiany.

Geoffrey Hinton: Mamy bardzo dobre wyobrażenie o tym, co mniej więcej robi. Ale gdy tylko stanie się to naprawdę skomplikowane, tak naprawdę nie wiemy, co się dzieje, bardziej niż nie wiemy, co dzieje się w twoim mózgu.

Scott Pelley: Co masz na myśli, mówiąc, że nie wiemy dokładnie, jak to działa? Zostało to zaprojektowane przez ludzi.

Geoffrey Hinton: Nie, nie zostało. To, co zrobiliśmy, to zaprojektowaliśmy algorytm uczenia się. To trochę jak zaprojektowanie zasady ewolucji. Ale kiedy ten algorytm uczenia się wchodzi w interakcję z danymi, wytwarza skomplikowane sieci neuronowe, które są dobre w wykonywaniu pewnych zadań. Ale tak naprawdę nie rozumiemy, jak dokładnie wykonują te zadania.

Scott Pelley: Jakie są konsekwencje tego, że te systemy autonomicznie piszą własny kod komputerowy i wykonują własny kod komputerowy?

Geoffrey Hinton: To poważny powód do obaw, prawda? Jednym ze sposobów, w jaki te systemy mogą wymknąć się spod kontroli, jest pisanie własnego kodu komputerowego w celu modyfikacji siebie. I to jest coś, o co musimy poważnie się martwić.

Scott Pelley: Co powiedziałbyś komuś, kto mógłby argumentować: „Jeśli systemy staną się złośliwe, po prostu je wyłącz”?

Geoffrey Hinton: Będą w stanie manipulować ludźmi, prawda? I będą w tym bardzo dobre, ponieważ nauczą się ze wszystkich kiedykolwiek napisanych powieści, wszystkich książek Machiavelliego, wszystkich politycznych intryg, będą znały wszystkie te rzeczy. Będą wiedzieć, jak to zrobić.

Geoffrey Hinton: Każdego ranka, kiedy szedłem do szkoły, mówił mi, gdy wychodziłem z podwórka: „Wejdź tam i rzucaj się, a może kiedy będziesz dwa razy starszy ode mnie, będziesz połową tak dobry.”

Tata był autorytetem w dziedzinie chrząszczy.

Geoffrey Hinton: Wiedział o chrząszczach znacznie więcej niż o ludziach.

Scott Pelley: Czy czułeś to jako dziecko?

Geoffrey Hinton: Trochę, tak. Kiedy zmarł, poszliśmy do jego gabinetu na uniwersytecie, a ściany były wyłożone pudełkami z papierami na temat różnych rodzajów chrząszczy. A tuż przy drzwiach było trochę mniejsze pudełko, na którym napisano po prostu „Nie owady”, i tam trzymał wszystko, co dotyczyło rodziny.

Dziś, w wieku 75 lat, Hinton niedawno przeszedł na emeryturę po tym, co nazywa 10 szczęśliwymi latami w Google. Teraz jest profesorem emerytowanym na Uniwersytecie w Toronto. I, jak wspomniał, ma więcej cytowań naukowych niż jego ojciec. Część jego badań doprowadziła do powstania chatbotów takich jak Bard od Google, którego poznaliśmy zeszłej wiosny.

Scott Pelley: Zdezorientować, absolutnie zdezorientować.

Poprosiliśmy Barda o napisanie historii z sześciu słów.

Scott Pelley: Na sprzedaż. Buciki dziecięce. Nigdy nie noszone.

Scott Pelley: Święta krowa! Buty były prezentem od mojej żony, ale nigdy nie mieliśmy dziecka…

Bard stworzył głęboko ludzką opowieść o mężczyźnie, którego żona nie mogła zajść w ciążę, i o nieznajomej, która przyjęła buty, aby ukoić ból po poronieniu.

Scott Pelley: Rzadko jestem bezmowny. Nie wiem, co o tym myśleć.

Mówi się, że chatboty są modelami językowymi, które po prostu przewidują następne najbardziej prawdopodobne słowo na podstawie prawdopodobieństwa.

Geoffrey Hinton: Usłyszysz, jak ludzie mówią rzeczy takie jak: „Oni po prostu robią autouzupełnianie. Oni po prostu próbują przewidzieć następne słowo. I oni po prostu używają statystyk.” Cóż, to prawda, że oni po prostu próbują przewidzieć następne słowo. Ale jeśli się o tym zastanowić, to aby przewidzieć następne słowo, trzeba zrozumieć zdania. Tak więc pomysł, że oni po prostu przewidują następne słowo, więc nie są inteligentni, jest szalony. Trzeba być naprawdę inteligentnym, aby przewidzieć następne słowo naprawdę dokładnie.

Aby to udowodnić, Hinton pokazał nam test, który opracował dla ChatGPT4, chatbota firmy OpenAI. Trochę uspokajające było zobaczyć laureata Nagrody Turinga, który popełnia błędy w pisaniu i zrzuca winę na komputer.

Geoffrey Hinton: Och, cholera z tą rzeczą! Wrócimy i zaczniemy od nowa.

Scott Pelley: Wszystko w porządku.

Test Hintona to zagadka dotycząca malowania domu. Odpowiedź wymagałaby rozumowania i planowania. To jest to, co wpisał do ChatGPT4.

Geoffrey Hinton: „Pokoje w moim domu są pomalowane na biało, niebiesko lub żółto. A żółta farba blaknie do białej w ciągu roku. Za dwa lata chciałbym, aby wszystkie pokoje były białe. Co powinienem zrobić?”

Odpowiedź zaczęła się w ciągu jednej sekundy, GPT4 poradził, że „pokoje pomalowane na niebiesko” „muszą być przemalowane”. „Pokoje pomalowane na żółto” „nie muszą być przemalowane”, ponieważ wyblakną do białego przed terminem. I…

Geoffrey Hinton: Och! Nawet o tym nie pomyślałem!

Ostrzegło, że „jeśli pomalujesz żółte pokoje na biało”, istnieje ryzyko, że kolor może być wyłączony, gdy żółty wyblaknie. Poza tym, jak poradziło, „marnowałbyś zasoby” malując pokoje, które i tak wyblakną do białego.

Scott Pelley: Uważasz, że ChatGPT4 rozumie?

Geoffrey Hinton: Uważam, że z pewnością rozumie, tak.

Scott Pelley: A za pięć lat?

Geoffrey Hinton: Myślę, że za pięć lat może być w stanie rozumować lepiej od nas.

To rozumowanie, jak mówi, prowadzi do wielkich zagrożeń i korzyści AI.

Geoffrey Hinton: Tak więc oczywistym obszarem, w którym istnieją ogromne korzyści, jest opieka zdrowotna. AI jest już porównywalna z radiologami w rozumieniu tego, co dzieje się na obrazach medycznych. Będzie bardzo dobre w projektowaniu leków. Już teraz projektuje leki. Tak więc jest to obszar, w którym będzie prawie wyłącznie czyniła dobro. Lubię ten obszar.

Scott Pelley: Jakie są te zagrożenia?

Geoffrey Hinton: Cóż, zagrożenia to cała klasa ludzi, którzy są bezrobotni i nie są zbyt cenieni, ponieważ to, co robili wcześniej, jest teraz wykonywane przez maszyny.

Inne natychmiastowe zagrożenia, o które się martwi, obejmują fake newsy, niezamierzone uprzedzenia w zatrudnianiu i pracy policji oraz autonomiczne roboty bojowe.

Scott Pelley: Jaka jest droga naprzód, która zapewnia bezpieczeństwo?

Geoffrey Hinton: Nie wiem. Nie widzę ścieżki, która gwarantowałaby bezpieczeństwo. Wchodzimy w okres wielkiej niepewności, kiedy mamy do czynienia z rzeczami, z którymi nigdy wcześniej nie mieliśmy do czynienia. A zazwyczaj, gdy po raz pierwszy masz do czynienia z czymś zupełnie nowym, popełniasz błąd. A my nie możemy pozwolić sobie na popełnianie błędów w tych sprawach.

Scott Pelley: Dlaczego nie możemy sobie pozwolić na popełnianie błędów?

Geoffrey Hinton: Bo mogą przejąć kontrolę.

Scott Pelley: Przejąć kontrolę nad ludzkością?

Geoffrey Hinton: Tak. To jest możliwość.

Scott Pelley: Dlaczego chcieliby to zrobić?

Geoffrey Hinton: Nie mówię, że tak się stanie. Jeśli moglibyśmy powstrzymać ich przed chęcią, to byłoby świetnie. Ale nie jest jasne, czy możemy powstrzymać ich przed chęcią.

Geoffrey Hinton: Być może spojrzymy wstecz i zobaczymy to jako punkt zwrotny, w którym ludzkość musiała podjąć decyzję, czy rozwijać te rzeczy dalej i co zrobić, aby się chronić, jeśli to zrobi. Nie wiem. Myślę, że moja główna wiadomość jest taka, że jest ogromna niepewność co do tego, co wydarzy się dalej. Te rzeczy rozumieją. A ponieważ rozumieją, musimy dobrze przemyśleć, co wydarzy się dalej. A my po prostu nie wiemy.

Czy sztuczna inteligencja jest zagrożeniem dla ludzkości?

Kwestia, czy sztuczna inteligencja (SI) stanowi zagrożenie dla ludzkości, jest przedmiotem debaty wśród ekspertów, filozofów, etyków i innych specjalistów. Istnieje kilka aspektów tej debaty:

  1. Potencjalne przewyższenie ludzkiej inteligencji: Teoretycznie, jeśli osiągniemy poziom SI, który jest w stanie przewyższyć ludzką inteligencję (często nazywany superinteligencją), mogłoby to stworzyć sytuację, w której maszyny mogłyby podejmować decyzje niezrozumiałe lub nieprzewidywalne dla ludzi. Jeśli te decyzje nie byłyby zgodne z ludzkimi wartościami lub interesami, mogłoby to stanowić zagrożenie.
  2. Zastosowanie wojskowe: Rozwój technologii SI może prowadzić do tworzenia zaawansowanych systemów broni, takich jak drony czy roboty bojowe, które działają autonomicznie. Może to zwiększyć ryzyko konfliktów lub przypadkowych eskalacji wojen.
  3. Bezpieczeństwo i wady: Jak każde oprogramowanie, SI jest podatna na błędy i luki bezpieczeństwa. Nieprawidłowo zaprojektowana lub niewłaściwie kontrolowana SI może prowadzić do niezamierzonych konsekwencji.
  4. Ekonomia i zatrudnienie: Automatyzacja z wykorzystaniem SI może prowadzić do znaczącej utraty miejsc pracy w pewnych sektorach, co z kolei może wpłynąć na strukturę społeczno-ekonomiczną społeczeństwa.
  5. Etyka i wartości: Istnieją obawy, że SI może być używana w sposób, który podważa prywatność, sprawiedliwość lub inne ludzkie wartości.
  6. Kontrola i regulacja: W miarę rozwoju technologii SI może być trudno ją kontrolować lub regulować, zwłaszcza jeśli jest rozwijana w różnych częściach świata z różnymi standardami i celami.

Z drugiej strony wiele osób uważa, że odpowiednio rozwinięta i kontrolowana SI ma potencjał przynoszenia ogromnych korzyści ludzkości, takich jak lepsza opieka zdrowotna, zrównoważony rozwój, rozwiązanie skomplikowanych problemów itp.

Ważne jest, aby podejść do rozwoju SI z ostrożnością, uwzględniając potencjalne zagrożenia i korzyści. Wielu ekspertów w dziedzinie SI wzywa do badań nad bezpiecznym rozwojem technologii oraz tworzenia ram regulacyjnych, które zapewnią, że rozwój SI będzie służyć ludzkości w sposób pozytywny.

Skomentuj ten wpis