| hciałbym zrozumieć na czym polega 00:00:02 istota inteligencji. Dla mnie 00:00:04 zdumniewającą rzeczą w ludzkim mózgu, 00:00:06 zakładając, że człowiek jest czymś w 00:00:08 rodzaju AI, tylko że nie sztuczną, ale 00:00:10 nadal ogólną inteligencją, jest jego 00:00:13 plastyczność, czyli zdolność uczenia 00:00:15 się. A to coś, co staje się tak 00:00:17 inteligentne jak człowiek w bardzo 00:00:19 ogólnym sensie. Uważam, że temat AGI nas 00:00:22 rozprasza. Pan Elizer Jutkowski mówi, 00:00:25 cytuje: "Jeśli ktoś zbuduje AGI, wszyscy 00:00:28 zginiemy". 00:00:30 Realistycznie sądzę, że dzielą nas od 00:00:32 tego dekady. W historii AI widzieliśmy 00:00:34 już kilka zim AI, kiedy to ludzie w 00:00:37 dobrej wierze przesadnie rozdmuchiwali 00:00:40 obietnice. Prowadziło to do zawyżonych 00:00:42 oczekiwań, które nie zostały spełnione, 00:00:44 a potem do załamania inwestycji i 00:00:46 zainteresowania. Właśnie zaproponował 00:00:48 pan dziś nową wersję testu Turouringa. 00:00:50 To był świetny pomysł jak na 1950 rok, 00:00:53 ale ten test naprawdę nie mierzy 00:00:56 inteligencji w sposób, w jaki dziś o 00:00:57 niej myślimy. W wielu pracach AI może 00:01:00 przejąć 30 do 40% obowiązków. Czy może 00:01:03 pan przewidzieć, które zawody mogą 00:01:05 ostatecznie zniknąć? 00:01:09 Andrew NG jest ojcem ery skalowania 00:01:12 sztucznej inteligencji. Jako założyciel 00:01:15 Google Brain i słynnej platformy Kursera 00:01:17 wpłynął na świadomość w obszarze AI 00:01:20 wobec dziesiątek milionów ludzi. Jego 00:01:22 badania cytowano w 300 000 publikacji 00:01:25 naukowych. Stoi za legendarnym 00:01:27 eksperymentem, w którym sieć Neuronowa 00:01:29 ucząc się na filmach z YouTube sama 00:01:31 odkryła, czym jest kod, bez żadnych 00:01:34 etykiet i instrukcji. Moment, który 00:01:36 symbolicznie pokazał, że maszyny 00:01:38 zaczynają uczyć się jak ludzie, a nie 00:01:40 tylko wykonywać polecenia. Był mentorem 00:01:43 Sama Altmana i wielu innych 00:01:45 współczesnych twórców AI. W otwartej 00:01:47 rozmowie mówi nam jak dziś zmienia się 00:01:50 świat AI, co przyniesie rok 2026 i Transcript on DemandExtract YouTube video transcripts with a simple API call or through Model Context Protocol Get YouTube Transcript API
00:01:53 odważnie wymienia zawody, które znikną z 00:01:56 mapy świata w najbliższym czasie. 00:02:00 Muszę pana zapytać o spór między Janem 00:02:03 Lekunem a Demisem Hasabisem. 00:02:06 Lekun uważa, że ludzka inteligencja jest 00:02:09 wyspecjalizowana, nie ogólna. Hasabis 00:02:12 twierdzi, że mózg w sensie obliczeniowym 00:02:15 to ogólny uczący się system. 00:02:26 Po której stronie stoi pan w tej 00:02:28 kwestii? 00:02:31 Wie pan, może coś mi umyka, ale nie 00:02:32 widzę tu sprzeczności. Dla mnie 00:02:34 zdumiewającą rzeczą w ludzkim mózgu, 00:02:36 zakładając, że człowiek jest czymś w 00:02:38 rodzaju AI, tylko że nie sztuczną, ale 00:02:41 nadal ogólną inteligencją, jest jego 00:02:43 plastyczność, czyli zdolność uczenia 00:02:46 się. I mamy wrażenie, że AGI w moim 00:02:48 rozumieniu powinno mniej dotyczyć AI, 00:02:51 która już wie wszystko na świecie. To 00:02:53 wydaje się bardzo trudne i mało 00:02:55 praktyczne. Natomiast to, co czyni 00:02:57 ludzki mózg tak wartościowym, albo jedną 00:03:00 z rzeczy, które czynią go tak 00:03:01 wartościowym w zasadnych ekonomicznie 00:03:03 zadaniach, to właśnie po prostu 00:03:05 umiejętność nauczenia się nowych rzeczy, 00:03:07 czegokolwiek akurat potrzeba. I to 00:03:09 poprzez uczenie się zdobywamy potem te 00:03:12 niesamowicie wyspecjalizowane 00:03:13 inteligencje. Na przykład ludzki mózg 00:03:16 nauczył się rozwiązywać niezwykle trudne 00:03:18 problemy matematyczne, kończąc doktorat 00:03:21 z matematyki. Mamy więc na końcu bardzo 00:03:23 wyspecjalizowaną inteligencję, ale jej 00:03:26 źródłem było uczenie się. A teoretycznie 00:03:29 ten sam mózg, tylko przy innym treningu, 00:03:32 mógłby zostać mistrzem szachowym albo 00:03:34 być niesamowity w grze w tenisa. Dlatego 00:03:37 dla mnie to, co czyni ludzki mózg tak 00:03:39 ogólnym, nie polega na tym, że mój czy 00:03:41 pana mózg zna już wszystkie rzeczy na 00:03:43 świecie, tylko na naszej zdolności 00:03:45 adaptacji, uczenia się bardzo szerokiego 00:03:47 zakresu rzeczy. 00:03:52 Czy to nie jest taka ukryta teza u 00:03:54 lekuna, że sama surowa ogólność nie 00:03:57 wystarcza? 00:04:00 Sama ogólność nie wystarczy. Tak. Tak. 00:04:03 Ale jak to przeczy temu, co mówił Demis? 00:04:07 Czyli jest pan po stronie Lekuna? Tak. 00:04:11 A jeszcze raz co powiedział Demis? 00:04:13 Demis Hasabis głęboko wierzył, że mózgi 00:04:16 są jakby ogólnymi mechanizmami uczenia 00:04:18 się w ujęciu obliczeń teoretycznych. 00:04:25 Myślę, że to też prawda. Mam wrażenie, 00:04:27 że jedną rzeczą, która naprawdę mnie 00:04:30 motywowała, kiedy tworzyłem zespół 00:04:32 Google Brain, była taka idea, o której 00:04:34 dziś ludzie już niewiele mówią, że 00:04:37 znaczna część ludzkiego uczenia się może 00:04:39 wynikać z jednego algorytmu uczenia się, 00:04:42 jakikolwiek by on nie był. Okazuje się, 00:04:44 że nasze DNA nie jest aż tak długie, a 00:04:47 więc DNA zawiera bardzo ograniczoną 00:04:50 ilość informacji. A mimo to nasze DNA 00:04:52 zakodowało biologię mózgu, a mózg jest 00:04:55 dość ogólnym algorytmem uczenia się. 00:04:58 Dlatego mózg może nauczyć się zrobić 00:05:00 doktorat z matematyki, albo nauczyć się 00:05:02 jeździć na motocyklu, albo nauczyć się 00:05:05 pisać na komputerze, czy też nauczyć się 00:05:07 pracować w call center. To dlatego, że 00:05:09 mózg ma ten bardzo ogólny algorytm 00:05:12 uczenia się, który pozwala mu poprzez 00:05:14 uczenie się wyspecjalizować się w 00:05:16 oszałamiająco szerokim zakresie. I 00:05:19 właśnie dlatego inteligencja wydaje się 00:05:21 ogólna. To ta zdolność uczenia się, 00:05:23 która pozwala zdobyć niemal każdą 00:05:25 specjalność pod słońcem. 00:05:34 Bardzo dużo mówi pan o AGI. Jeszcze 5 00:05:37 lat temu. 00:05:41 Jeszcze jedna rzecz. Tak, właściwie nie 00:05:44 lubię mówić o AGI, ale inni o niej sporo 00:05:46 mówią. Przecież nawet dziś pan o niej 00:05:48 pisał. Tak, ale mam wrażenie, że jako 00:05:50 liderzy w tej dziedzinie, gdy pojawia 00:05:52 się taka ogromna ilość, czy naprawdę 00:05:54 uważa pan, że AI i AGI to tylko moda, że 00:05:57 są przereklamowane, 00:06:00 są mocno rozdmuchane? 00:06:02 Rozumiem. Przynajmniej w opinii 00:06:04 publicznej AGI to coś, co staje się tak 00:06:07 inteligentne jak człowiek w bardzo 00:06:09 ogólnym sensie. Jesteśmy od tego bardzo 00:06:11 daleko. Mam nadzieję, że kiedyś tam 00:06:13 dotrzemy. Bardzo bym chciał dojść do 00:06:16 AGI, ale realistycznie sądzę, że dzielą 00:06:18 nas od tego dekady, a może nawet więcej 00:06:21 niż dekady. Dlatego pomysł, że tak 00:06:23 wystarczy jeszcze kilka kwartałów, żeby 00:06:25 dojść do AGI po prostu się nie ziści. 00:06:28 Chyba, że przedefiniuje się AGI tak, by 00:06:31 obniżyć poprzeczkę i uczynić ten cel 00:06:34 znacznie łatwiejszym do osiągnięcia. I 00:06:36 szczerze mówiąc w historii AI 00:06:38 widzieliśmy już kilka zim AI, kiedy to 00:06:41 ludzie w dobrej wierze przesadnie 00:06:43 rozdmuchiwali obietnice dotyczące AI. 00:06:46 Prowadziło to do zawyżonych oczekiwań, 00:06:48 które nie zostały spełnione, a potem do 00:06:50 załamania inwestycji i zainteresowania. 00:06:53 To było złe dla tej dziedziny. Dziś AI 00:06:56 działa naprawdę dobrze. Jest niezwykle 00:06:58 wartościowa. Widzę stosunkowo niewiele 00:07:00 rzeczy, które mogłyby wykoleić jej 00:07:03 impet. Jedną z rzeczy, o które naprawdę 00:07:05 się martwię, jest nadmierny szum, który 00:07:08 prowadzi do rozczarowania, a potem do 00:07:10 pęknięcia tej tak zwanej bańki. I to nie 00:07:13 byłoby dobre ani dla świata, ani dla 00:07:15 rozwoju AI. Dlatego studzenie emocji 00:07:17 wokół AGI jest tak ważne, aby położyć 00:07:20 solidne fundamenty pod bardziej 00:07:22 zrównoważony wzrost, 00:07:25 bo wie pan, jeszcze 5 lat temu samo 00:07:28 rozwiązywanie dowolnego zadania z 00:07:30 kodowania nazwalibyśmy AGI. Dziś już to 00:07:33 mamy i mówimy na to po prostu narzędzie. 00:07:36 Czy więc już nie przesunęliśmy tej 00:07:38 poprzeczki? Nie zmieniliśmy kryteriów? 00:07:41 Nie sądzę, by 5 lat temu rozwiązywanie 00:07:43 problemów z czołówki nazywano AGI. 00:07:46 Mówionobo by: "Opublikowałem pracę o 00:07:48 tym, jak pobyliśmy poziom człowieka". 00:07:50 Więc może trzy lata temu, tak? Może trzy 00:07:52 lata temu rozwiązanie dowolnego problemu 00:07:54 z kodowaniem nazywano AGI, jak pamiętam. 00:07:57 Inaczej to pamiętam. Nie przypominam 00:07:59 sobie, aby wiarygodne zespoły ogłaszały 00:08:01 osiągnięcie AGI. Pamiętam raczej, że 00:08:04 zespoły deklarowały, iż AGI jest kwestią 00:08:06 krótkiego czasu, ale trzy lata temu nie 00:08:08 było tak, że krzyczały: "Mamy AGI". 00:08:10 Mówiły, że możemy dojść do tego naprawdę 00:08:12 szybko, a jak dotąd nikt tam nie dotarł. 00:08:16 Czy nie uważa pan, że już przesunęliśmy 00:08:18 tę poprzeczkę? 00:08:21 Myślę, że jeśli już, to zespoły próbują 00:08:24 obniżyć poprzeczkę tego, co znaczy 00:08:26 osiągnąć AGI. To znaczy AGI, AI, która 00:08:29 potrafi wykonywać każde zadanie 00:08:31 intelektualne, jakie potrafią ludzie. To 00:08:34 bardzo wysoko postawiona poprzeczka. 00:08:36 Nawet się do niej nie zbliżyliśmy. Ale 00:08:38 jeśli zespoły wymyślą alternatywną 00:08:41 definicję, łatwiejszą do spełnienia, to 00:08:43 może dotrzemy tam szybciej. Swoją drogą 00:08:46 nie mam silnej opinii co do tego, jak 00:08:48 zdefiniujemy AGI. Możemy zdefiniować AGI 00:08:51 jak tylko chcemy, ale problem polega na 00:08:54 tym, że większość szerokiej publiczności 00:08:56 myśli o AGI jako o ogólnie bardzo 00:08:59 inteligentnej AI w gruncie rzeczy 00:09:02 inteligencji podobnej do ludzkiej. Tak 00:09:04 myśli większość ludzi na świecie. 00:09:05 Subiektywność myślenie abstrakcyjne, 00:09:07 prawda? Dokładnie. Myślę, że ponieważ 00:09:10 ludzie wciąż tworzą alternatywne 00:09:12 definicje, okazuje się, że kiedy wiele 00:09:14 różnych osób używa tego samego słowa do 00:09:16 opisywania istotnie różnych rzeczy, 00:09:18 terminy tracą znaczenie. Na przykład 00:09:21 wszyscy mniej więcej wiemy, co znaczy 00:09:22 słowo niebieski. Moja koszula jest 00:09:24 niebieska, ale gdyby z jakiegoś powodu 00:09:26 społeczeństwo wskazywało na 00:09:28 najróżniejsze kolory i mówiło: "To jest 00:09:30 niebieskie, to jest niebieskie". Słowo 00:09:32 niebieskie straciłoby znaczenie, bo 00:09:34 ludzie nie wiedzieliby już, co właściwie 00:09:36 znaczy, kiedy ktoś mówi niebieski. I to 00:09:38 właśnie stało się z AGI. Różne zespoły 00:09:41 wymyślały różne alternatywne definicje. 00:09:43 Ludzie mówią, to jest AGI. A ponieważ do 00:09:46 tego terminu stosuje się wiele różnych 00:09:48 definicji, kiedy ktoś mówi dziś AGI, 00:09:51 trudno zrozumieć co dokładnie ma na 00:09:53 myśli. A problem polega na tym, że 00:09:55 opinia publiczna kojarzy AGI z 00:09:57 inteligencją podobną do ludzkiej, 00:10:00 bo tak jest, co wydaje mi się rozsądne. 00:10:03 Więc jeśli ktoś wymyśli jakąś dziwną, 00:10:06 wąską techniczną definicję i powie, że 00:10:08 AGI pojawi się za 2 lata, to i tak 00:10:11 szersza publiczność uzna, że za 2 lata 00:10:13 AI będzie tak inteligentna jak ludzie, a 00:10:15 to po prostu nie wydaje mi się prawdą. 00:10:17 Przy każdej rozsądnej definicji AGI 00:10:20 sądzę, że odpowiedź brzmi nie. W 2026 00:10:23 roku nie uzyskamy AGI. Najlepszym 00:10:26 sposobem by mieć AGI w 2026 byłoby to, 00:10:30 że drastycznie obniżymy poprzeczkę tego, 00:10:33 co AGI naprawdę znaczy. Wtedy może ktoś 00:10:36 zdoła pokonać tę barierę. Czy może pan 00:10:38 wyjaśnić i zdefiniować AGI? Definicja 00:10:41 AGI, z którą spotykam się najczęściej, 00:10:44 to AI, która potrafiłaby wykonać każde 00:10:46 zadanie intelektualne, jakie potrafi 00:10:48 wykonać człowiek. A dziś człowiek może 00:10:50 się nauczyć w ciągu powiedzmy 00:10:52 kilkudziesięciu godzin na przykład jak 00:10:54 poprowadzić ciężarówkę przez las, czego 00:10:56 nigdy wcześniej nie robił. Choć sądzę, 00:10:58 że gdyby podszkolił mnie pan przez kilka 00:11:00 godzin, to prawdopodobnie dałbym radę. 00:11:02 Człowiek potrafi się też nauczyć 00:11:04 odbierać telefony w call center i 00:11:06 odpowiadać na pytania tak, jak konkretna 00:11:08 firma wymaga, by to robić. Są więc 00:11:10 rzeczy, których człowiek może się 00:11:11 nauczyć. Zadania intelektualne w 00:11:13 odróżnieniu od zadań fizycznych. A mimo 00:11:15 to w przypadku wielu takich zadań wciąż 00:11:16 mam wrażenie, że trzeba wykonać ogrom 00:11:18 pracy, aby budować niestandardowe 00:11:19 przepływy pracy AI, które realizujemy 00:11:21 my, rzeczy, które faktycznie robimy. I 00:11:23 okazuje się to bardzo wartościowe. Ale 00:11:25 to, że inżynier musi poświęcać na 00:11:26 budowanie takich rozwiązań aż tyle 00:11:27 czasu, nie jest tym, co opinia publiczna 00:11:29 zwykle wyobraża sobie jako i choć bardzo 00:11:31 liczę, że kiedyś dojdziemy do tego, że 00:11:32 komputery będą równie inteligentne co 00:11:33 ludzie pod każdym względem, to uważam, 00:11:35 że jesteśmy od tego bardzo daleko. 00:11:38 Chciałem przekazać coś dla nas bardzo 00:11:40 ważnego. Napisałem moją pierwszą 00:11:43 książkę. Od wielu lat prowadzę tu 00:11:45 rozmowy z największymi umysłami na 00:11:47 Ziemi, tytanami. Zebrałem nie 00:11:49 opublikowane do tej pory wywiady w 00:11:51 formie książki. Zamawiajcie ją, 00:11:53 wspierajcie to co robimy i zgłębcie się 00:11:56 razem z nami w tajemnic rzeczywistości. 00:11:59 >> Jak pan definiuje ludzką świadomość? 00:12:02 Uważam, że świadomość jest ważnym 00:12:04 pytaniem filozoficznym, ale nie wiem 00:12:06 czym jest świadomość. Filozofowie 00:12:08 doprecyzowują świadomość w tym sensie, 00:12:11 że istnieje pojęcie bycia samoświadomym, 00:12:13 ale okazuje się, że tak naprawdę nie wie 00:12:15 pan, czy ja jestem świadomy. Ja tak 00:12:17 naprawdę nie wiem, czy pan jest prawda. 00:12:20 Skąd ma pan wiedzieć? W filozofii jest 00:12:22 takie pojęcie, że być może jestem po 00:12:24 prostu zombie i wcale nie jestem 00:12:26 świadomy, tylko poruszam rękami, 00:12:28 poruszam ustami i udaję, że jestem 00:12:29 świadomy, ponieważ nie ma pan dostępu do 00:12:32 mojego wewnętrznego doświadczenia i 00:12:34 odwrotnie. Nie wiemy tak naprawdę czy 00:12:35 ktokolwiek inny jest świadomy, ale 00:12:38 myślę, że przez całą tę uprzejmość 00:12:40 zakładamy, że wszyscy inni są świadomi w 00:12:42 takim stopniu, w jakim sądzimy, że my 00:12:44 sami jesteśmy. Więc ponieważ świadomości 00:12:46 nie da się zmierzyć, dla mnie czyni to z 00:12:48 niej pytanie filozoficzne, a nie 00:12:50 naukowe. A chociaż filozofia jest ważna, 00:12:53 bardziej ciągnie mnie do pytań 00:12:54 naukowych. 00:12:57 Jaka jest więc natura ludzkiej 00:13:00 inteligencji? 00:13:03 Dla mnie natura inteligencji to pytanie, 00:13:05 jakie naprawdę mechanizmy pozwalają 00:13:07 ludzkiemu mózgowi, a może innym 00:13:09 biologicznym mózgom przejawiać ten 00:13:11 ogromny zakres inteligentnych zachowań, 00:13:14 które widzimy. Na przykład jak to w 00:13:16 ogóle działa. Swoją drogą coś, co nie 00:13:19 jest powszechnie znane. Zanim założyłem 00:13:21 zespół Google Brain, robiłem coś 00:13:23 jeszcze. Spędzałem mnóstwo czasu z moimi 00:13:26 znajomymi neuronaukowcami. Czytałem 00:13:28 ogromne stosy artykułów z neuronauki i 00:13:31 doszedłem do wniosku z całym szacunkiem 00:13:33 dla moich przyjaciół neuronaukowców, że 00:13:36 neuronauka tak naprawdę nie ma pojęcia 00:13:38 jak w zasadzie działa mózg. Więc 00:13:40 porzuciłem neuronaukę jako drogę do 00:13:42 budowania inteligencji, ale zrozumienie 00:13:45 jak właściwie działa inteligencja, jaka 00:13:47 jest natura inteligencji, jestem prawie 00:13:50 pewien, że nie jest to sieć typu 00:13:52 transformer ze skalowaniem praw. Jestem 00:13:54 prawie pewien, że potrzeba czegoś 00:13:55 więcej. Ale chciałbym, żebym ja jaka 00:13:58 jest także natura rozumowania? 00:14:01 Tak myślę, że rozumowanie jest pod 00:14:03 zbiorem inteligencji, ale zrozumienie 00:14:05 jak naprawdę działa rozumowanie też 00:14:07 byłoby fascynujące. 00:14:11 >> Pan Elizer Jutkowski mówi, cytuje: 00:14:14 "Jeśli ktoś zbuduje AGI, wszyscy 00:14:17 zginiemy. 00:14:22 Ale każdy rok zwłoki to miliony zgonów 00:14:25 na raka. starzenie i choroby, które AI 00:14:28 mogłaby leczyć. 00:14:31 Które ryzyko jest większe? Dla mnie to 00:14:34 fundamentalne pytanie. 00:14:37 Szczerze mówiąc, kiedy czytam wiele jego 00:14:39 argumentów, często nie potrafię ich w 00:14:41 ogóle rozgryźć. Sporo z nich jest na 00:14:43 tyle rozmytych, że nawet nie wiem jak z 00:14:45 nimi sensownie polemizować. Uważam, że 00:14:48 AI już dziś robi na świecie tak wiele 00:14:50 dobrego, iż wszystko co możemy zrobić, 00:14:52 by przyspieszyć jej rozwój, przełoży się 00:14:55 na lepsze życie. Znacznie więcej 00:14:57 uratowanych istnień, dużo więcej 00:14:59 bogatszych i w lepszej sytuacji ludzi, a 00:15:01 także wyciągnięcie ogromnej liczby osób 00:15:03 z ubóstwa. Łączna korzyść z AI jest 00:15:06 zdecydowanie większa niż łączna szkoda. 00:15:08 Owszem, istnieją pewne szkodliwe 00:15:10 zastosowania. Bądźmy wobec nich 00:15:13 racjonalni i je usuwajmy. Ale w tej 00:15:15 chwili jestem silnie przekonany, że 00:15:17 wszystko co możemy zrobić, by 00:15:18 przyspieszyć postęp AI jest dobre dla 00:15:20 ludzkości. 00:15:26 Z pana punktu widzenia przyszłość jest 00:15:28 nieprzewidywalna, prawda? Chciałbym 00:15:30 umieć przewidywać przyszłość. Oczywiście 00:15:32 tak, jest nieprzewidywalna. Istnieje 00:15:34 zbyt wiele czynników. 00:15:37 Myślę, że choć nie wiemy z całą 00:15:38 pewnością dokąd dokładnie zmierza świat, 00:15:41 istnieją trendy, co do których mamy 00:15:43 bardzo wysoki poziom pewności. Na 00:15:45 przykład to, że komputery będą coraz 00:15:47 bardziej inteligentne wydaje mi się 00:15:49 oczywiste i to jest świetna rzecz. 00:15:51 Chodzi o to, by zdemokratyzować dostęp 00:15:54 do inteligencji, bo okazuje się, że 00:15:56 jedną z najdroższych rzeczy na świecie 00:15:58 jest inteligencja. Zatrudnienie 00:16:01 świetnego lekarza czy świetnego 00:16:02 nauczyciela, aby się nami zajmowali, 00:16:04 kosztuje mnóstwo pieniędzy. 00:16:11 Właśnie zaproponował pan dziś nową 00:16:13 wersję testu Touringa. Czy może pan 00:16:15 wyjaśnić pana propozycję? 00:16:20 Jestem tym bardzo podekscytowany. Mam 00:16:22 wrażenie, że przez cały ten szum wokół 00:16:24 AGI stała się ona raczej hasłem 00:16:26 marketingowym niż czymś o precyzyjnym 00:16:29 znaczeniu technicznym. A gdy używa się 00:16:31 jej jako terminu marketingowego, to w 00:16:33 praktyce wprowadza się wiele osób w 00:16:34 błąd. Ale skoro ludzie chcą AGI i się 00:16:37 nią ekscytują tak jak ja, to czemu nie 00:16:40 opracować testu, żeby sprawdzić, czy 00:16:42 faktycznie zbliżamy się do jej 00:16:43 osiągnięcia. Pomysł jest taki. W 00:16:46 oryginalnym teście Turouringa ludzki 00:16:48 sędzia mógł wymieniać tekst pisząc albo 00:16:50 z AI, albo z człowiekiem. A sens 00:16:53 oryginalnego testu był taki: Czy AI 00:16:55 potrafi oszukać sędziego tak, by sędzia 00:16:58 uznał, że nie potrafi rozpoznać, czy 00:17:00 rozmawia z AI, czy z człowiekiem? To był 00:17:03 świetny pomysł jak na 1950 rok, kiedy 00:17:06 Alan Turing, o ile pamiętam, 00:17:07 zaproponował ten test. Ale ten test tak 00:17:10 naprawdę nie mierzy inteligencji w 00:17:12 sposób, w jaki dziś o niej myślimy. Moja 00:17:14 wersja testu Turouringa dla AGI jest 00:17:17 taka. Ludzki sędzia projektuje 00:17:19 wielodniowe doświadczenie, coś w rodzaju 00:17:21 wdrożenia lub szkolenia wstępnego 00:17:23 realizowanego przez komputer, a testowi 00:17:26 poddana będzie albo AI, albo człowiek z 00:17:28 dostępem do komputera i normalnego 00:17:31 oprogramowania, takiego jak przeglądarka 00:17:33 internetowa, może Zoom, może inne 00:17:35 narzędzia. Jeśli przez kilka dni w takim 00:17:38 wielodniowym scenariuszu AI potrafiłaby 00:17:40 wykonać użyteczną, ekonomicznie 00:17:42 wartościową pracę tak dobrze jak 00:17:44 wykwalifikowany profesjonalista, to 00:17:47 według mnie byłaby to bardziej sensowna 00:17:49 definicja AGI. Proponuję ją, ponieważ 00:17:51 jest ona znacznie bliższa temu, co 00:17:53 szeroka publiczność rozumie przez AGI. 00:17:56 Jeśli ludzie myślą, że AGI może już być 00:17:58 blisko, to myślą: "Wow, AI będzie w 00:18:00 stanie wykonywać pracę ludzi". I 00:18:02 rzeczywiście, jeśli AI jest przez wiele 00:18:05 dni w stanie działać jak zdalny 00:18:06 pracownik i wykonywać produktywną pracę, 00:18:09 to będzie to niezwykle wartościowe i 00:18:11 moim zdaniem dużo bliższe temu, co 00:18:13 ludzie uznają za prawdziwą AGI, niż 00:18:16 niektóre alternatywne kryteria, które 00:18:18 część firm promuje na potrzeby PR, 00:18:20 polityki czy zbiórek funduszy. Pamiętam 00:18:24 mój wywiad z ser Rogerem Penosem, 00:18:26 laureatem nagrody Nobla. Matematyka jest 00:18:29 systemem zamkniętym, więc AI może grać w 00:18:32 nią jak w grę. 00:18:35 Czy nie boi się pan, że nie istnieje 00:18:37 skuteczny test AI? 00:18:45 Jednym z wyzwań w testach czy 00:18:47 benchmarkach dla AI jest to, że gdy ktoś 00:18:50 z góry ustali zestaw testowy, to mierzy 00:18:52 się tylko jeden konkretny wymiar 00:18:54 inteligencji. Dlatego dla wielu modeli 00:18:57 AI, zwłaszcza dużych modeli językowych 00:18:59 istnieje mnóstwo standardowych 00:19:01 benchmarków Swibench, GPQA i tak dalej. 00:19:05 Bardzo trudno uniknąć tego, aby zespoły 00:19:08 nie optymalizowały swoich modeli pod 00:19:10 znane systemy testów. Nawet jeśli nie 00:19:13 robią tego wprost, i tak się to dzieje. 00:19:15 Ai ma poszarpaną nierówną inteligencję. 00:19:18 W jednych rzeczach jest świetna, w 00:19:20 innych bywa naprawdę słaba. Natomiast 00:19:23 AGI, jeśli rozumieć ją jako AI zdolną 00:19:26 wykonać każde zadanie intelektualne, 00:19:28 które potrafi człowiek, powinna 00:19:30 obejmować cały zakres takich zadań. Dla 00:19:33 mnie zasadnicza różnica między 00:19:35 benchmarkiem opartym o stały zestaw 00:19:37 testów a sondowaniem na żywo przez 00:19:39 człowieka polega na tym, że ludzki 00:19:41 sędzia może spojrzeć na aktualny stan 00:19:44 techniki i sprawdzić gdzie AI jest 00:19:46 mocna, a gdzie słaba. A jeśli AI ma być 00:19:49 na poziomie AGI, to większość ludzi 00:19:52 myśli o niej jako o systemie 00:19:53 dorównującym im w każdym wymiarze. Czyli 00:19:56 sędzia, człowiek nie powinien umieć 00:19:58 wysądować obszarów, w których AI jest 00:20:01 wyraźnie słabsza od człowieka. Na 00:20:03 przykład w ekonomicznie wartościowych 00:20:05 zadaniach zawodowych, które chcemy 00:20:06 powierzać AI. Ale wie pan, czy 00:20:09 benchmarki faktycznie mierzą coś 00:20:11 rzeczywistego? Benchmarki dochodzą do 00:20:14 oceny 90% a użytkownicy mówią, że model 00:20:18 sprawia wrażenie mniej inteligentnego. 00:20:20 Czy benchmarki mierzą coś realnego? 00:20:26 Owszem, benchmarki mierzą coś realnego, 00:20:28 ale to bardzo wąski wycinek tego, co w 00:20:30 ogóle będziemy mierzyć. Jedna ze 00:20:32 słabości wielu benchmarków polega na 00:20:34 tym, że dużo lepiej umiemy projektować 00:20:36 testy obiektywne, czyli rzeczy takie jak 00:20:39 matematyka. Odpowiedź jest poprawna albo 00:20:41 błędna. Albo pytanie faktograficzne w 00:20:44 stylu: "Kto na tegorocznych igrzyskach 00:20:46 wygrał 200 m stylem dowolnym?" Takie 00:20:48 pytania mają jednoznacznie dobrą lub złą 00:20:50 odpowiedź, więc wiele benchmarków 00:20:52 sprowadza się do mierzenia, czy AI ma 00:20:54 rację, czy nie. To jest bardzo 00:20:56 zerojedynkowe. W prawdziwym życiu 00:20:58 niezwykle trudno opracować jedną 00:21:00 całkowicie obiektywną najlepszą 00:21:02 odpowiedź. Nawet w rozmowie jak ta, 00:21:04 którą teraz prowadzimy. Co jest tą jedną 00:21:07 właściwą rzeczą, którą powinienem 00:21:09 powiedzieć? Nie wiem, ale mógłbym 00:21:11 powiedzieć coś lepszego albo coś 00:21:12 gorszego. I ogólnie nie jesteśmy zbyt 00:21:15 dobrzy w tworzeniu benchmarków, które 00:21:17 mierzą rzeczy bardziej subiektywne, 00:21:19 gdzie występują stopnie jakości, dobre i 00:21:22 złe, bo bardzo trudno napisać zestaw 00:21:24 testów mówiący: "To jest jedna poprawna 00:21:27 odpowiedź z wielu, a to jedna z wielu 00:21:29 błędnych. Nie, że nie próbujemy, ale mam 00:21:32 wrażenie, że wiele benchmarków, które 00:21:33 mamy, nie łapie tego tak dobrze. A w 00:21:36 praktyce tak wygląda sporo ludzkiej 00:21:38 pracy. Jeśli poprosi mnie pan o 00:21:39 napisanie raportu badawczego, to nie ma 00:21:41 jednego właściwego raportu. Są różne 00:21:44 poziomy tego, jak dobry albo zły może 00:21:46 być taki raport. Nasza zdolność pisania 00:21:49 benchmarków, które mogą uchwycić tę 00:21:51 szarość, te odcienie szarości jest dużo 00:21:54 słabsza niż umiejętność robienia testów 00:21:56 typu czy model poprawnie rozwiązał 00:21:58 zadanie z matematyki. czy napisał kod, 00:22:01 który się uruchamia i działa, to 00:22:03 potrafimy robić lepiej niż to, czego 00:22:05 wymaga znaczna część naprawdę użytecznej 00:22:07 ludzkiej pracy. Jeśli nie AGI, to czego 00:22:11 możemy się spodziewać w 2026 roku? Greg 00:22:15 Brockman z Open AI mówi, że dwa 00:22:17 największe wyzwania dla AI w 2026 roku 00:22:21 to wdrożenie agentów w firmach i 00:22:23 przyspieszenie nauki. Jaka jest pana 00:22:25 opinia? 00:22:30 Uważam, że temat AGI nas rozprasza. 00:22:33 Jesteśmy od niej bardzo daleko. Nie 00:22:35 dojdziemy do niej w najbliższym czasie. 00:22:37 Ale nawet bez osiągnięcia AGI robimy i w 00:22:41 2026 roku nadal będziemy robić mnóstwo 00:22:44 niesamowicie wartościowych rzeczy. 00:22:46 Ukułem termin agentowa AI, aby opisać 00:22:49 coraz powszechniejsze zjawisko jakie 00:22:51 widziałem. I choć mówiłem, że zbudowanie 00:22:53 AI, która zrozumie użyteczne procesy 00:22:55 biznesowe, to ogrom pracy, czasem gdy 00:22:57 nam się to udaje, wartość jest ogromna. 00:23:00 W 2026 roku i później będziemy mieli 00:23:03 dużo ekscytującej pracy nad budowaniem 00:23:05 agentów AI albo agentowych przepływów 00:23:08 pracy, które wykonają masę 00:23:10 wartościowych, ekonomicznie istotnych 00:23:12 zadań. U nas w naszym AI Fund zespoły 00:23:15 używają agentowych przepływów pracy 00:23:17 workflow do pisania kodu jak wiele 00:23:20 innych zespołów w branży, ale też do 00:23:22 analizowania dokumentacji, do 00:23:24 sprawdzania zgodności z taryfami celnymi 00:23:27 w trybie wsparcia AI albo do czytania 00:23:29 trudnych dokumentów prawniczych, żeby 00:23:31 pomóc prawnikom lepiej wykonywać ich 00:23:34 pracę, czy też do zadań wspierających 00:23:36 medycynę, albo do wspierania obsługi 00:23:38 klienta. I widzę, że przenoszenie 00:23:40 procesów mentalnych, przez które ludzie 00:23:42 teraz przechodzą wykonując tego typu 00:23:44 zadania, czy to zgodność prawna, czy 00:23:47 cokolwiek innego, i ujęcie ich jako 00:23:49 agenta AI w agentowym przepływie pracy, 00:23:52 tak aby AI mogła robić to za nas, to 00:23:54 moim zdaniem potrwa to jeszcze bardzo 00:23:56 długo. Będziemy jeszcze przez wiele, 00:23:58 wiele lat budować te agentowe przepływy 00:24:01 workflow. 00:24:03 W kontekście agentowych workflowów, o 00:24:06 których pan mówi, profesor Rich 00:24:08 Saturynął stwierdzeniem, że surowa moc 00:24:11 obliczeniowa zawsze wygra z ludzką 00:24:13 pomysłowością. Skupiając się na 00:24:15 agentowych workflowach, czy nie jest pan 00:24:18 trochę wbrew temu stwierdzeniu? 00:24:23 Artykuł Richa o gorzkiej lekcji był 00:24:25 bardzo wpływowy i bardzo dobrze 00:24:27 napisany. Żeby było jasne, lubię 00:24:29 skalować. Kiedy zakładałem Google Brain, 00:24:32 które później połączyło się z Deep Mind, 00:24:34 tworząc Google Deep Mind, gdy powstawał 00:24:37 Gemini i tak dalej, moją misją numer 00:24:39 jeden, którą wyznaczyłem zespołowi 00:24:41 Google Brain było po prostu skalujmy. 00:24:44 Mówimy o naprawdę dużych, ogromnych 00:24:46 sieciach neuronowych, do których 00:24:48 dochodzi mnóstwo danych. Uważam więc, że 00:24:50 byłem w AI prawdopodobnie od jej samych 00:24:52 początków. Jest pan architektem epoki 00:24:55 skali. stawiałem na skalę, kiedy 00:24:57 szczerze mówiąc w tamtym czasie prawie 00:24:59 wszyscy inni uważali to za dziwną rzecz, 00:25:01 na którą w ogóle nie warto stawiać. 00:25:03 Lubię więc skalę i myślę, że wynikało to 00:25:05 z tego, że zespół Google Brain tak jak 00:25:07 go zorganizowałem skalę miał po prostu w 00:25:10 swoim DNA. To było najważniejsze. 00:25:12 Oczywiście zespół robił wiele różnych 00:25:14 rzeczy, zawsze jest wiele zadań, ale 00:25:16 misją numer jeden było właśnie 00:25:18 skalowanie. Tak zbudowałem Google Brain 00:25:21 i właśnie dlatego z takim DNA to zespół 00:25:23 Google Brain wymyślił transformatorową 00:25:25 sieć neuronową, najbardziej skalowalną 00:25:28 architekturę sieci neuronowych w 00:25:30 historii, która napędziła rewolucję 00:25:32 generatywnej AI, więc naprawdę wierzę w 00:25:35 skalę. Jednakże w różnych momentach w 00:25:38 czasie nasza zdolność do skalowania oraz 00:25:40 nasza zdolność do wprowadzania innych 00:25:42 form wiedzy tworzą pewną równowagę, w 00:25:45 której nie sądzę, że osiągniemy wszystko 00:25:47 czego chcemy tylko i wyłącznie dzięki 00:25:49 skali. To jest niesamowicie potężne 00:25:51 narzędzie i jak w wielu sprawach czasem 00:25:54 widzieliśmy jak firmy pompują jeden 00:25:56 fenomen na potrzeby pozyskiwania 00:25:57 finansowania albo PR-u czy z innych 00:26:00 powodów. I to jest absolutnie prawda, że 00:26:02 dzięki prawom skalowania, gdy skaluje 00:26:05 się systemy, można dość przewidywalnie 00:26:07 prognozować, dokąd pójdzie ich 00:26:09 wydajność. Po raz pierwszy pokazał to 00:26:11 mój zespół w BDU, a później, jak 00:26:13 pamiętam Open AI. I to jest w istocie 00:26:16 wspaniały argument do zbierania 00:26:18 funduszy, bo można powiedzieć: "Dajcie 00:26:20 mi więcej pieniędzy, a ja przeskaluję te 00:26:22 maszyny, przeskaluję liczbę punktów 00:26:25 danych, żeby było lepiej". Ale myślę, że 00:26:27 z powodu tego jednego prawa skali temat 00:26:29 został rozdmuchany ponad to, czym 00:26:31 faktycznie jest, co jest bardzo 00:26:33 wartościowe, ale nie aż tak, jakby to 00:26:35 wynikało z całego tego szumu, choć wciąż 00:26:38 wartościowe. A agentowe przepływy pracy 00:26:41 pozwalają nam wykorzystać skalę modeli 00:26:43 AI, dużych modeli językowych i dodatkowo 00:26:46 wstrzykiwać do systemu inne typy wiedzy, 00:26:48 by budować bardziej niezawodne i 00:26:50 wydajniejsze workflowy. 00:26:54 Czy naprawdę uważa pan, że era 00:26:56 skalowania dobiegła obecnie końca? Nie, 00:26:59 nie sądzę, że era skalowania dobiegła 00:27:01 końca. To staje się coraz trudniejsze. 00:27:03 Tak, to było ciekawe. A rozwijała się 00:27:06 być może nawet wykładniczo. Interesujące 00:27:08 było też obserwować, że liczba dolarów 00:27:11 potrzebnych do napędzania tego 00:27:13 wykładniczego postępu również rosła 00:27:15 wykładniczo, czyli wydaje się 00:27:17 wykładniczo więcej pieniędzy, żeby 00:27:19 uzyskać wykładniczo szybszą poprawę. To 00:27:22 nie jest złe. To jest bardzo 00:27:23 wartościowe, bo koszt zbudowania tego 00:27:25 można rozłożyć na wielu użytkowników i 00:27:28 myślę, że skala wciąż może nam jeszcze 00:27:30 sporo dać, ale to nie jest jedyna droga, 00:27:33 jaką dziś mamy, by ulepszać AI. 00:27:40 Co mogłoby zmienić pana zdanie? 00:27:43 O czym? O skalowaniu. 00:27:45 Co sprawiłoby, żebym w ogóle odpuścił 00:27:47 skalowanie? Tak. 00:27:49 Jeśli przez dłuższy czas kolejne próby 00:27:51 skalowania modeli nie przynosiłyby 00:27:53 żadnych efektów, to pewnie zmieniłbym 00:27:55 zdanie. Ale tu pojawia się ważny 00:27:57 dopisek. Tak jak przez wiele dekad prawo 00:28:00 mura napędzało postęp, tak do tego by 00:28:03 prawo mura nadal sprawiało, że 00:28:05 półprzewodniki działały coraz lepiej, 00:28:07 potrzebnych było wiele różnych 00:28:08 technologii, które z czasem się 00:28:10 zmieniały. Widzimy, że we wczesnych 00:28:12 dniach generatywnej AI i dużych modeli 00:28:15 językowych przepis był prosty. Zdobyć 00:28:18 więcej danych, zbudować większy model. 00:28:20 To dokładnie to, przynajmniej na takim 00:28:22 poziomie abstrakcji, co Google Brain 00:28:24 próbowało robić ponad 15 lat temu. Od 00:28:27 tamtej pory modele AI przeczytały 00:28:29 właściwie cały otwarty internet. To 00:28:31 sprawia, że ten prosty przepis na 00:28:33 skalowanie już tak naprawdę nie działa. 00:28:35 Dlatego wiele zespołów wykonuje teraz 00:28:37 znacznie więcej pracy w obszarze 00:28:39 generowania danych syntetycznych, co 00:28:41 wymaga dużo więcej ludzkiej inżynierii 00:28:43 oraz w obszarze różnych przepisów 00:28:45 uczenia ze wzmocnieniem. I choć 00:28:48 eskalowanie nadal przynosi korzyści, 00:28:50 konkretne receptury napędzające to 00:28:51 skalowanie zdecydowanie i dość mocno 00:28:54 zmieniły się w ciągu ostatnich dwóch, 00:28:56 trzech lat. 00:28:59 Z drugiej strony, czy mądrzejszy model 00:29:02 przebije sprytny przepływ pracy? 00:29:08 Właśnie szkoda, że w praktyce nie jest 00:29:11 to takie proste. Myślę, że teoretycznie 00:29:14 tak. W praktyce jest to dużo trudniejsze 00:29:16 niż większość ludzi sądzi. 00:29:22 Dlaczego w praktyce jest to takie 00:29:24 trudne? 00:29:27 Jedną z rzeczy, które uważam za 00:29:28 fantastyczne jest to, że wraz z bardziej 00:29:31 inteligentnymi modelami, czy to Clod 4.5 00:29:34 Opus, Gemini 3, GPT 51, 52, coraz 00:29:38 częściej możemy udostępnić dużemu 00:29:40 modelowi językowemu zestaw narzędzi i po 00:29:43 prostu dać mu wolną rękę, czyli dać mu 00:29:45 narzędzia do odczytu i zapisu w systemie 00:29:48 plików, a potem zlecić jakieś zadanie, 00:29:50 na przykład znajdź zbędne pliki i pomóż 00:29:52 mi posprzątać dysk twardy czy tym 00:29:54 podobne. A poziom działania jest 00:29:56 fantastyczny. To naprawdę, naprawdę robi 00:29:59 ogromne wrażenie. Jednakże dla wielu 00:30:01 przepływów pracy to wciąż nie jest dość 00:30:03 niezawodne, żeby nadawało się do użycia 00:30:05 na co dzień. I dlatego, chociaż 00:30:07 mądrzejsze modele są świetne, to w wielu 00:30:10 praktycznych zastosowaniach biznesowych 00:30:12 obserwuję dziś zespoły, które rozpisują 00:30:15 jaki workflow chcemy mieć, jakie są 00:30:17 kluczowe kroki i wdrażają go kawałek po 00:30:20 kawałku, żeby właśnie uzyskać tę 00:30:22 niezawodność, przewidywalność, aby móc 00:30:25 go uruchomić 10 000 razy i żeby działał 00:30:27 praktycznie za każdym razem. A gdy 00:30:29 modele stają się bardziej inteligentne, 00:30:32 pozwalamy im być bardziej 00:30:33 autonomicznymi. Usuwamy ograniczniki. To 00:30:36 coś, co moje zespoły robią często. To, 00:30:39 co zbudowaliśmy 6 miesięcy temu miało 00:30:41 więcej zabezpieczeń, było bardziej 00:30:43 oskryptowane, a my rutynowo redukujemy 00:30:46 te rusztowania. Zamiast dawać bardzo 00:30:48 szczegółowe instrukcje krok po kroku, 00:30:50 częściej mówimy do AI: "Wiesz co, sama 00:30:53 zdecyduj, co chcesz zrobić". Może taki 00:30:56 przykład. Kiedy prowadziliśmy dogłębne 00:30:58 badania, gdzie mówiliśmy, że aby 00:31:00 przeprowadzić badania w danym temacie, 00:31:02 wykonaj wyszukiwanie w sieci, zrób tyle 00:31:04 i tyle zapytań, potem pobierz tyle i 00:31:07 tyle stron i to podsumuj i tak dalej. 00:31:10 Klasyczny agentowy workflow badawczy 00:31:12 sprzed roku czy dwóch. Dziś modele AI 00:31:15 dużo lepiej potrafią same zdecydować, 00:31:17 czy chcą jeszcze dalej przeszukiwać 00:31:19 internet, czy chcą to podsumować, czy 00:31:21 nie. Więc często biorę systemy, których 00:31:24 prototyp robiliśmy rok temu, 6 miesięcy, 00:31:27 rok, półtora roku temu i usuwam z nich 00:31:29 instrukcje, mówiąc: "Hej, w samym 00:31:31 prompcie po prostu sam rozpracuj te 00:31:34 decyzje." Ale to wciąż długa droga. To 00:31:36 działa w przypadkach typu głęboki 00:31:38 research, gdzie model nie podejmuje 00:31:40 działań. Jeśli pominie cytowanie albo 00:31:43 przeoczy odnośnik, to nie jest jeszcze 00:31:45 koniec świata. Ale dla wielu zastosowań 00:31:48 klasy enterprise o wysokiej stawce 00:31:50 uważam, że luka w niezawodności między 00:31:52 podejściem puśćmy model luzem i niech 00:31:54 robi co chce, a tym czego realnie 00:31:57 potrzebujemy, choć się zmniejsza, wciąż 00:31:59 jest większa niż niektórzy sądzą. 00:32:06 Kiedy pana słucham, muszę zapytać, czy 00:32:08 mówiąc otwarcie w najbliższych latach 00:32:11 programiści zostaną bez pracy? 00:32:14 Sądzę, że programiści, którzy nie 00:32:16 używają AI będą mieli kłopoty, a ci, 00:32:18 którzy naprawdę znają AI są tak 00:32:20 produktywni, że po prostu nie da się 00:32:22 znaleźć ich wystarczająco wielu. Czy też 00:32:25 będą ostatni do zwolnienia? 00:32:29 Określenie ostatni do zwolnienia brzmi 00:32:31 trochę ponuro. Uważam, że większość 00:32:33 zawodów nigdzie nie znika, ale to 00:32:35 powiedzenie, że AI nie zastąpi kogoś, 00:32:38 tylko ktoś, kto używa AI zastąpi kogoś, 00:32:40 kto jej nie używa, jest już bardziej 00:32:42 prawdziwe. Teraz, żeby było 00:32:44 przejrzyście, aby być całkowicie 00:32:46 szczerym, istnieje niewielka liczba 00:32:48 zawodów, które AI w pełni zautomatyzuje. 00:32:51 Mówiąc wprost, wielu tłumaczy ma 00:32:53 problem. Tłumaczę i myślę, że też 00:32:55 aktorzy głosowi też mogą mieć kłopot. 00:32:57 Inną sprawą jest to, że istnieje bardzo 00:32:59 mały odsetek zawodów, które AI potrafi 00:33:02 całkowicie zautomatyzować. Tym osobom 00:33:04 naprawdę współczuje i uważam, że 00:33:06 jesteśmy im winni bardzo wiele, aby 00:33:08 mogły zdobyć nowe umiejętności, wrócić 00:33:11 na rynek pracy i znaleźć inne sensowne 00:33:13 zajęcia. Ja jako osoba od AI czuję 00:33:16 obowiązek zrobić wszystko co tylko mogę, 00:33:18 żeby mieć pewność, że ci ludzie są 00:33:20 zaopiekowani. Ale w przypadku 00:33:22 zdecydowanej większości zawodów AI może 00:33:24 zautomatyzować częściowo radiologia. 00:33:27 Myślę, że zautomatyzowanie pracy 00:33:29 radiologów zajmuje znacznie więcej czasu 00:33:31 niż ludzie sądzili, prawda? Myślę, że 00:33:33 trwa to już bardzo długo. 00:33:39 Prawnik? Myślę, że zawód prawnika ma 00:33:42 jeszcze wiele do nadrobienia. Bardzo 00:33:44 trudno byłoby całkowicie zastąpić 00:33:46 ludzkich prawników, ale prawnicy bez AI 00:33:49 będą znacznie mniej wydajni niż ci, 00:33:51 którzy z AI korzystają. Sztuczna 00:33:53 inteligencja naprawdę świetnie radzi 00:33:55 sobie z myśleniem abstrakcyjnym w 00:33:57 badaniach, w analizie prawnej. 00:34:02 Uważam, że AI mogłaby świetnie wykonywać 00:34:04 niektóre aspekty pracy prawniczej, ale 00:34:06 jest tu pewien haczyk. Jeśli jest 00:34:08 zadanie i AI potrafi wykonać 30% pracy, 00:34:12 to do pozostałych 70% wciąż potrzebny 00:34:14 jest człowiek. Tyle że ten człowiek 00:34:16 powinien korzystać z AI, bo ten kto z 00:34:18 niej nie korzysta, po prostu traci na 00:34:20 bazie prawa produktywności. Czy może pan 00:34:22 przewidzieć, które zawody mogą 00:34:24 ostatecznie zniknąć? Oczywiste jest to, 00:34:26 że znika wiele miejsc pracy w call 00:34:28 center, miejsc pracy tłumaczy, aktorów 00:34:30 głosowych. Uważam, że zagrożone są te 00:34:32 stanowiska, w których można 00:34:33 zautomatyzować niemal 100% pracy. 00:34:36 Okazuje się jednak, że wiele zawodów 00:34:37 jest bardzo złożonych, wielowątkowych, 00:34:39 które polegają jakby na świetnej pracy z 00:34:42 tekstem, a jednocześnie są dobre w 00:34:44 zadaniach nietekstowych. Dlatego w 00:34:45 większości przypadków warto patrzeć na 00:34:47 analizę opartą na zadaniach, jak w 00:34:49 badaniach, które prowadził mój 00:34:51 przyjaciel Eric Brnolfson i inni. 00:34:54 Bierzemy zawód, dzielimy go na zadania i 00:34:56 sprawdzamy, które z nich AI potrafi 00:34:58 zautomatyzować. W wielu pracach AI może 00:35:00 przejąć 30 do 40% obowiązków. Do 00:35:03 pozostałych 60 70% wciąż potrzeba więc 00:35:07 człowieka. Jest też mała grupa, gdzie AI 00:35:09 może zautomatyzować prawie wszystko. Te 00:35:11 zawody są w tarapatach, ale to naprawdę 00:35:13 znaczna mniejszość spośród istniejących 00:35:15 miejsc pracy. 00:35:20 Mam kilka pytań o fundamentalne podstawy 00:35:23 AI. Dziecko uczy się chodzić po kilku 00:35:26 upadkach. Uczenie ze wzmocnieniem wymaga 00:35:28 milionów symulacji. Czy to po prostu 00:35:30 nauka metodą siłową? 00:35:46 Jednym z wyzwań uczenia metodą siłową 00:35:48 brut force jest to, że ludzka 00:35:50 inteligencja wynika z ogólności 00:35:52 algorytmu uczenia się i właśnie to 00:35:54 sprawia, że ludzki mózg jest tak 00:35:56 potężny, jest ogólna, uczy się nowych 00:35:59 rzeczy naprawdę szybko i dlatego na 00:36:01 przykład ludzie, którzy z nami pracują, 00:36:03 potrafią zrobić tak wiele. Podczas gdy 00:36:05 chociaż trzeba poświęcić dużo czasu, 00:36:07 żeby metodą brut force wytrenować AI do 00:36:10 jakiegoś wąskiego zadania, to w pewnych 00:36:13 przypadkach nadal może to być bardzo 00:36:15 wartościowe, ale dla wielu zadań po 00:36:17 prostu nie będzie uzasadnienia, aby to 00:36:19 robić. Więc możliwość tego, żeby 00:36:21 zatrudnić człowieka, chwilę z nim 00:36:23 porozmawiać, a potem ustalić co zrobić i 00:36:26 wykonać pracę, nadal jest naprawdę 00:36:28 cenna. Jeśli trzeba zaangażować AI, a 00:36:31 potem wydać milion dolarów na jej 00:36:33 wytrenowanie do jednego zadania, to jest 00:36:35 wiele zadań, przy których po prostu nie 00:36:37 ma sensu wkładać aż tyle środków w jej 00:36:39 trenowanie. 00:36:43 Ale wie pan, jeśli efektywność próbkowa 00:36:46 nie ma znaczenia, to niestety tylko trzy 00:36:48 firmy na świecie mogą sobie pozwolić na 00:36:50 trenowanie modeli z czołówki. 00:36:55 Może pan powtórzyć? Jeśli wydajność 00:36:57 próbkowa się nie poprawi, tylko trzy 00:37:00 firmy na świecie, najwięksi gracze, będą 00:37:03 w stanie trenować wiodące modele od 00:37:05 podstaw. 00:37:08 To nie jest dobre dla społeczności AI. 00:37:12 Czy taka będzie przyszłość? 00:37:16 Naprawdę ciekawie będzie obserwować 00:37:18 nieustannie ewoluującą dynamikę między 00:37:21 modelami open source i modelami z 00:37:23 otwartymi wagami a modelami 00:37:25 własnościowymi. Wie pan, AI jako 00:37:27 oligopol? Mam nadzieję, że do takiej 00:37:29 przyszłości nie dojdziemy. Szczerze 00:37:31 mówiąc, gdy patrzę na platformy 00:37:33 tworzenia aplikacji mobilnych, dziś są 00:37:35 one po prostu mniej interesujące. 00:37:37 częściowo dlatego, że są tam dwaj 00:37:39 strażnicy dostępu. Żeby zrobić coś na 00:37:41 smartfony, przynajmniej w Stanach 00:37:43 Zjednoczonych, trzeba mieć zgodę iOSa 00:37:46 albo Androida. Przez te zamknięte 00:37:48 platformy pewnych innowacji po prostu 00:37:50 nie wolno nam robić. Wielu z nas w AI 00:37:53 bardzo liczy, że nie skończy się to tym, 00:37:55 iż na drodze do budowania 00:37:56 najnowocześniejszych rozwiązań AI będą 00:37:59 stali tylko dwaj czy trzej strażnicy. 00:38:02 Jeśli tylko ktoś ma pomysł, chciałbym by 00:38:04 mógł bez przeszkód wprowadzać innowacje 00:38:07 na bazie dużych modeli językowych. 00:38:09 Dlatego modele open source i modele o 00:38:11 otwartych wagach są kluczowe, by 00:38:13 zapobiec powstaniu tej garstki 00:38:15 strażników. Jeśli dopilnujemy, by 00:38:17 wszyscy zachowali i zadbali o istnienie 00:38:20 wolności, innowacji, chociaż tej obecnie 00:38:23 mamy więcej w świecie AI niż właśnie na 00:38:25 przykład w świecie mobilnym, zobaczymy 00:38:27 więcej wynalazków świetnych aplikacji, a 00:38:30 społeczeństwo będzie dzięki nim znacznie 00:38:32 bogatsze. 00:38:38 Systemy tożsamości budują wspomnienia, 00:38:40 notatki w plikach, zewnętrzne bazy 00:38:43 danych i tak dalej. Czy naprawdę 00:38:45 potrzebujemy prawdziwego uczenia 00:38:47 ciągłego? 00:38:55 Jest jeszcze bardzo dużo pracy do 00:38:56 wykonania w obszarze uczenia ciągłego. 00:38:59 Uważam, że to obecnie jeden z ważnych 00:39:01 otwartych tematów badawczych w AI. Wiele 00:39:04 obecnych systemów pamięci opartych na 00:39:06 tekście działa tak, że AI robi to, co ma 00:39:08 zrobić, a potem zapisuje sporą porcję 00:39:11 tekstu do jakiejś agentowej pamięci. I 00:39:14 pytania brzmią, czy tekst naprawdę jest 00:39:16 wystarczająco dobrą reprezentacją 00:39:18 pamięci? Istnieją pewne badania nad 00:39:21 reprezentacjami nietekstowymi, ale 00:39:23 obecnie większość i tak kręci się wokół 00:39:26 tekstu. Do tego dochodzi fakt, że 00:39:28 budujemy te wszystkie systemy pamięci, 00:39:30 które w zasadzie nigdy nie aktualizują 00:39:32 wag LLM. Mam wrażenie, że przez to może 00:39:35 umykać nam kluczowy element tej 00:39:37 układanki. Niektóre z moich zespołów 00:39:40 miały pewne pomysły. Nie wiem jeszcze w 00:39:42 którą stronę pójdziemy, ale chodzi o 00:39:44 poprawę uczenia ciągłego. 00:39:47 Jeśli chodzi o rzeczy, które potrafią, a 00:39:50 nie potrafi, 00:39:52 jaka jest obecnie największa przeszkoda 00:39:54 w uczeniu ciągłym? 00:39:56 Powiedziałbym, że nie mamy dobrych 00:39:58 pomysłów. Nie jesteśmy pewni, które z 00:39:59 nich są właściwe. Jest ich naprawdę całe 00:40:02 mnóstwo. Nawet pan znam kilka pomysłów, 00:40:04 które uważam za obiecujące. 00:40:07 Na przykład 00:40:09 może pozwoli pan, że najpierw je 00:40:11 przetestuję, jak znajdę czas i dam panu 00:40:13 znać, jeśli coś zadziała. Szczerze 00:40:15 mówiąc nie wiem, czy coś w ogóle działa, 00:40:18 ale dla mnie to jedna z tych rzeczy. 00:40:19 Gdybyśmy zapytali gdzie jest wąskie 00:40:21 gardło w rozwiązaniu tego ogromnego, 00:40:23 nierozstrzygniętego problemu badawczego, 00:40:25 nie wiemy, bo ścieżka dojścia nie jest 00:40:27 jasna, więc nie potrafimy nawet wskazać 00:40:30 konkretnych wąskich gardeł. Po prostu 00:40:32 nie wiemy jak to zrobić. Czy uprząż ma 00:40:35 znaczenie, czy wszystko zależy, wie pan, 00:40:38 od samego konia pociągowego. 00:40:42 Czy uprząż kontrola ma znaczenie? Tak. 00:40:45 Mówimy o dużych modelach językowych. 00:40:47 Tak, dokładnie. Myślę, że ta otoczka 00:40:49 zapewniająca kontrolę i przewidywalność, 00:40:52 tak zwany harness, ma ogromne znaczenie. 00:40:54 Niesamowicie było obserwować jak 00:40:56 Antropik buduje Cloud COD, a wcześniej 00:40:59 też swoje SDK, żeby mieć pewność, że 00:41:02 oni, a może też inni, mają dobry harness 00:41:04 do korzystania z modelu w ten sposób. I 00:41:07 szczegóły tego harnessu, jak 00:41:09 strukturyzuje się prompt, jakie 00:41:11 narzędzia daje się LLMowi, wszystkie te 00:41:13 detale wciąż naprawdę mają znaczenie. 00:41:16 Podam mały przykład. Nasze obecne modele 00:41:18 są niezwykle inteligentne i coraz lepiej 00:41:20 radzą sobie z używaniem narzędzi, z 00:41:22 wykonywaniem wywołań funkcji. Mimo to, 00:41:25 jeśli damy naszemu modelowi zbyt wiele 00:41:27 narzędzi, zjada to sporą część kontekstu 00:41:30 wejściowego i znacznie częściej zaczyna 00:41:32 się gubić oraz wykonuje błędne wywołanie 00:41:35 API. Błędnie je wywołuje. Więc takie 00:41:38 niby drobiazgi może się wydawać, mamy 00:41:41 2026 rok. Dlaczego mamy się przejmować 00:41:44 takimi szczegółami inżynierskimi? 00:41:46 Okazuje się, że musimy, bo nadal dla 00:41:48 ogólnej wydajności robi to ogromną 00:41:50 różnicę. Wiele zespołów jak i ja, używa 00:41:53 MCP, protokołu integracji dla AI. A 00:41:56 jedną z praktycznych kwestii 00:41:58 inżynierskich jest to, że jeśli nasz 00:42:00 serwer MPC ma zbyt długą listę narzędzi, 00:42:03 to pochłania masę własnego kontekstu 00:42:05 wejściowego i tych narzędzi może być po 00:42:08 prostu za dużo, więc model nie potrafi 00:42:10 skutecznie ustalić, który z nich użyć. 00:42:12 Wtedy wchodzi inżynieria kontekstu i 00:42:14 czasem harness pomaga podejmować te 00:42:16 decyzje dużo płynniej. 00:42:19 Co z uczeniem ciągłym? Antropik 00:42:21 przewiduje, że problem uczenia ciągłego 00:42:23 zostanie rozwiązany do 202 roku. Czy pan 00:42:26 też tak przewiduje? 00:42:29 Czekam na moment, gdy problem uczenia 00:42:31 ciągłego zostanie rozwiązany. To byłoby 00:42:33 niesamowite. Byłoby wspaniale, gdyby 00:42:36 udało się to całkowicie rozwiązać w 2026 00:42:39 roku. Spodziewam się, że zrobimy 00:42:41 postępy. Uważam, że uczenie ciągłe jest 00:42:42 bardzo ważne. 00:42:44 Czy potrzebujemy więcej narzędzi dla 00:42:47 bezpieczeństwa AI? 00:42:50 Tak, powinniśmy stale działać, aby 00:42:52 systemy AI były coraz bardziej 00:42:54 niezawodne i mniej ryzykowne. 00:42:58 A zarazem, gdy patrzę na to wszystko, 00:43:00 ponieważ wszyscy wokół skupiają się na 00:43:02 tym, co przynosi zysk, na tym, co jest 00:43:04 opłacalne. 00:43:07 Wie pan, sądzę, że wielu ludzi byłoby 00:43:09 zaskoczonych, jak silny jest pogląd, że 00:43:11 w Dolinie Krzemowej liczą się tylko 00:43:13 pieniądze i nic poza tym, ale to jest po 00:43:15 prostu zupełnie błędne. Szczerze 00:43:17 powiedziawszy, mamy wielu znajomych 00:43:19 pracujących w różnych firmach. Osobiście 00:43:22 znamy wielu prezesów i tak istnieje 00:43:24 niewielka mniejszość, która dba 00:43:26 wyłącznie o zysk, ale to naprawdę 00:43:28 niewielki odsetek. Wielu moich znajomych 00:43:31 z wielu tych firm, ludzie, których znam 00:43:34 od dziesięcioleci, od co najmniej 00:43:35 dekady, naprawdę chcę postępować 00:43:37 właściwie. Dlatego zabezpieczenia 00:43:39 traktuje się bardzo poważnie. 00:43:41 Odpowiedzialną AI również. Ludzie 00:43:43 poświęcają mnóstwo czasu na rzetelne 00:43:46 burze mózgów o tym, co w systemie AI 00:43:48 może pójść dobrze albo źle i próbują 00:43:50 ograniczać ryzyka. Wiem, że istnieje 00:43:53 obraz fałszywy stereotyp, że w Dolinie 00:43:55 Krzemowej to banda kowbojów i kowbojek, 00:43:58 którzy dla zysku zrobią wszystko. To po 00:44:00 prostu kompletnie nieprawda. Niestety 00:44:02 prawdą jest, że w niewielkiej liczbie 00:44:04 firmy, gdy pojawia się pokusa zarobienia 00:44:06 miliardów dolarów, ta pokusa bywa silna, 00:44:09 ale uważam, że to naprawdę margines. 00:44:11 Bardzo mała, wręcz znikoma ilość ludzi, 00:44:13 którzy wybierają tę drogę. 00:44:19 Mam do pana kilka pytań dotyczących 00:44:21 kwestii edukacyjnych, gdyż jest pan 00:44:24 także świetnym komunikatorem. Stara się 00:44:27 pan jednocześnie dbać o świadomość 00:44:29 społeczną i o rozwój sztucznej 00:44:32 inteligencji. 00:44:37 Co przychodzi panu na myśl, gdy patrzy 00:44:39 pan na obecny etap rozwoju sztucznej 00:44:42 inteligencji? 00:44:45 Chcę umożliwić każdemu tworzenie AI. 00:44:48 Jako programista nie chcę już nigdy 00:44:50 ręcznie pisać kodu. Chcę, żeby AI pisała 00:44:53 za mnie jak największą część kodu. 00:44:55 Przyspieszenie inżynierii oprogramowania 00:44:57 dzięki AI jest bardzo wyraźne, ale dla 00:45:00 wielu osób mniej oczywiste jest to, że 00:45:03 ludzie, którzy nie są programistami, 00:45:05 wyszliby na tym o wiele lepiej, gdyby 00:45:08 tworzyli oprogramowanie i robili różne 00:45:10 rzeczy z AI, niż gdyby tego nie robili. 00:45:13 Naprawdę widzę to też w naszych 00:45:15 zespołach. Specjalista do spraw 00:45:16 marketingu, który umie korzystać z AI, 00:45:19 zaczyna zostawiać w tyle tych, którzy 00:45:21 tego nie potrafią. Moja dyrektor 00:45:23 finansowa w AI Fund pisze kod i robi 00:45:26 dzięki temu znacznie więcej niż jakaś 00:45:29 inna hipotetyczna dyrektorka finansowa, 00:45:31 która nie umie pisać kodu z użyciem AI. 00:45:34 To co obserwuję to, że dzięki narzędziom 00:45:37 AI, w tym w szczególności tworzeniu 00:45:39 oprogramowania z AI, jest to bardzo 00:45:42 ważna nowa kompetencja, którą powinni 00:45:44 mieć wszyscy. Gdy pojawiają się nowe 00:45:46 możliwości, wiele osób je wykorzysta, 00:45:49 podniesie głowę, będzie w stanie zrobić 00:45:51 dużo więcej i będzie mogła być znacznie 00:45:53 bardziej produktywna niż obecnie. Jednak 00:45:56 niestety będą też takie osoby, które nie 00:45:58 wykorzystają tych możliwości i które 00:46:01 niestety zostaną w tyle. Naprawdę się o 00:46:03 to martwię. Jednym z naszych większych 00:46:06 wyzwań jest to, że jeśli spojrzeć na 00:46:08 system uniwersytecki, wiele uczelni zbyt 00:46:11 wolno aktualizuje programy nauczania i 00:46:13 wciąż kształci studentów pod zawody z 00:46:16 2022 roku. Tyle że wiele z tych 00:46:19 stanowisk tak naprawdę już nie istnieje. 00:46:21 Pracodawcy nie chcą zatrudniać kogoś 00:46:24 przygotowanego jak student z 2022 roku. 00:46:27 Za to wielu pracodawców nie jest w 00:46:29 stanie znaleźć wystarczająco dużo osób, 00:46:32 które znają AI i potrafią ją tworzyć. I 00:46:35 nie mam na myśli inżynierów 00:46:36 oprogramowania. Sam nie mogę znaleźć 00:46:39 specjalistów do spraw marketingu, 00:46:40 rekruterów i specjalistów finansowych, 00:46:43 którzy naprawdę znają AI. A 00:46:45 przestawienie systemu edukacji tak, by 00:46:47 dać studentom, a także dorosłym 00:46:49 umiejętność korzystania z tych narzędzi 00:46:51 i wykonywania znacznie większej ilości 00:46:53 pracy będzie wymagało ogromnej zmiany 00:46:55 systemu edukacyjnego. Ale jak do tego 00:46:58 dojść w tej chwili? Wciąż wydaje mi się 00:46:59 to bardzo trudne. 00:47:02 Co stoi na przeszkodzie, aby AI 00:47:04 zastąpiła pana jako edukatora? Problem 00:47:06 baz danych, program nauczania? 00:47:09 Chciałbym to wiedzieć. Mój zespół 00:47:11 regularnie pisze AI, by mnie zastąpić. 00:47:13 za moją zgodą i zachętą. A jednak to 00:47:16 niemożliwe, prawda? Niestety, jak dotąd, 00:47:19 nie udało im się mnie zastąpić. 00:47:21 Podejrzewam, że jestem zbyt ogólną 00:47:22 formą. Może nie wiemy jak działa uczenie 00:47:25 się. Myślę, że jeśli kiedykolwiek 00:47:27 dojdziemy do AGI, to będzie to świetne. 00:47:29 Przechodzi pan na emeryturę, robi coś 00:47:31 innego. Zastąpienie wielu 00:47:33 wykwalifikowanych ludzi to już problem 00:47:35 AGI. 00:47:41 Wie pan, kiedy będę mógł na przykład 00:47:43 zapisać moje dziecko do szkoły nauki 00:47:46 jazdy w pełni opartej na AI? 00:47:49 Szkoła jazdy w pełni oparta na AI? 00:47:51 Właśnie to ciekawe pytanie. Być może 00:47:54 myślę, że w przypadku wąskich 00:47:55 specjalizacji nasza zdolność budowania 00:47:57 AI do obsługi takich niz będzie rosła 00:48:00 znacznie szybciej niż ta pełna nadziei 00:48:02 ogólna AI. Umiejętność prowadzenia 00:48:05 pojazdu to zresztą ciekawy przykład. 00:48:07 Okazuje się, że szkoły jazdy w Stanach w 00:48:09 pewnym stopniu padły ofiarą przejęcia 00:48:11 regulacyjnego. Dlatego wiele innowacji 00:48:13 wdrożono w innych krajach, na przykład 00:48:15 symulatory jazdy. Okazuje się, że w 00:48:17 wielu państwach symulatory jazdy wlicza 00:48:19 się do liczby przejechanych godzin, ale 00:48:21 nie w Stanach Zjednoczonych. Z tego 00:48:23 powodu w Stanach symulatory jazdy są 00:48:25 używane znacznie rzadziej niż w innych 00:48:27 krajach. Są więc takie dziwne rzeczy, 00:48:29 które bywają bardzo frustrujące. Uważam, 00:48:31 że Ameryka powinna częściej korzystać z 00:48:33 symulatorów jazdy, bo to bardzo 00:48:35 bezpieczny sposób uczenia młodzieży. 00:48:39 Odszedł pan z Bajdu w 2017 roku, prawda? 00:48:44 Jaki był powód, że zdecydował się pan 00:48:47 być tutaj? Czy to była etyka, czy coś 00:48:50 innego? Może polityka? Dlaczego 00:48:52 zdecydował się pan tu przenieść? 00:48:55 W BDU świetnie mi się pracowało. 00:48:57 Zabawne, że ludzie wciąż pytają, kiedy 00:48:59 się przenoszę. Z Google Brain do Corseri 00:49:01 czy później z BDU do prowadzenia AI 00:49:04 fund. Zawsze myślą, że kryje się w tym 00:49:06 coś więcej. 00:49:10 Oczywiście ja też 00:49:14 rozumiem. Czułem, że prowadząc zespół AI 00:49:16 w Bajdu miałem świetnych ludzi. Wykonali 00:49:19 oni znakomitą pracę, budując okręt 00:49:21 matkę, reklamę online, usprawnanie 00:49:24 wyszukiwania w sieci, wszystkie kluczowe 00:49:26 obszary firmy. Zespół naprawdę dowoził. 00:49:29 Pamiętam jak patrzyłem na schematy 00:49:31 organizacyjne i myślałem sobie: "Wiesz 00:49:33 co, gdyby mnie tu nie było, mają bardzo 00:49:35 dobry zespół, poradzą sobie beze mnie". 00:49:38 Zrozumiałem też, że najfajniejszą 00:49:40 częścią mojej pracy było tworzenie 00:49:42 nowych jednostek biznesowych. Świetnie 00:49:44 zarabialiśmy dla okrętu matki i byłem 00:49:47 dumny z tego, co zespół zrobił, ale ja 00:49:49 osobiście najwięcej radości miałem z 00:49:52 budowania nowych przedsięwzięć. Na 00:49:54 przykład w Bajdu kierowałem zespołem 00:49:56 rozwijającym autonomiczne samochody, 00:49:59 który do dziś bardzo dobrze radzi sobie 00:50:01 w Chinach. Prowadziłem też w Bajdu 00:50:03 zespół inteligentnego głośnika, coś jak 00:50:06 Alexa albo Hej Siri. I on również nadal 00:50:09 działa świetnie. Czułem, że choć 00:50:11 potrafię zarabiać dla okrętu matki, to 00:50:14 naprawdę angażuje mnie tworzenie nowych 00:50:16 biznesów. Zadałem więc sobie pytanie, 00:50:18 skoro w dużej firmie to zadziałało, to 00:50:21 może gdy zacznę coś innego, co 00:50:23 ostatecznie stało się inkubatorem 00:50:25 startupów AI fund i będę budować firmy 00:50:28 bardziej od zera, zamiast w realiach 00:50:30 wielkiej korporacji, to zadziała to 00:50:33 jeszcze lepiej. Dlatego odszedłem z 00:50:35 bajdu i założyłem Deep Learning AI, bo 00:50:38 chcę robić dużo więcej dla edukacji, aby 00:50:40 dawać ludziom narzędzia do budowania ze 00:50:42 wsparciem AI, a dodatkowo prowadzić AI 00:50:45 Fund, gdzie tworzymy startupy. 00:50:53 Czy uważa pan, że Chiny prowadzą w AI? 00:50:56 Uważam, że AI jest wielowymiarowa i 00:50:58 Chiny są przed stanami w niektórych 00:51:00 obszarach, na przykład w open source i 00:51:03 modelach otwartych, a Stany są przed 00:51:05 Chinami w innych, na przykład w modelach 00:51:07 własnościowych. 00:51:08 Więc nie żałuje pan swojego wyboru. 00:51:12 Myślę, że świetnie się bawiłem pracując 00:51:14 z zespołami w Chinach. Świetnie mi się 00:51:16 też pracowało z Deep Learning AI, AI 00:51:19 Fund, a ostatnio z AIPE i Landing AI. 00:51:23 Więc tak, jestem z tego zadowolony. 00:51:25 Jestem bardzo zadowolony z tego, co 00:51:26 robię. Niczego nie żałuję. 00:51:30 Z czystej perspektywy skali, czy Chiny 00:51:33 nie mają więcej siły przebicia? Może też 00:51:37 kultury naukowej. 00:51:39 Pamiętam, że wróciliśmy z Dubaju, 00:51:41 przeprowadziliśmy wywiad z jednym z 00:51:43 badaczy z Chin. Jestem pod ogromnym 00:51:46 wrażeniem, jak ważna jest dla nich 00:51:48 nauka. 00:51:53 Chiny mają wiele atutów. Stany 00:51:55 Zjednoczone też mają wiele atutów. Mam 00:51:58 poczucie, że choć ten świat nie jest 00:52:00 doskonały, ja kocham Amerykę i świat 00:52:03 Zachodu. I choć w jednych okresach 00:52:05 wydaje się, że demokracja działa lepiej, 00:52:07 a w innych gorzej, to jest to ważny 00:52:10 filar tego, jak funkcjonujemy w Ameryce. 00:52:12 I uważam, że wciąż jest tu dużo dobrej 00:52:14 pracy do wykonania i cieszę się, że mogę 00:52:17 to kontynuować. 00:52:19 Czego 00:52:23 możemy oczekiwać od pana firmy Deep 00:52:25 Learning AI w tym roku i w kolejnych 00:52:28 latach? 00:52:32 Od Andrew NG. 00:52:35 Zachęcałbym każdego, żeby tworzył z 00:52:37 wykorzystaniem AI. Bardzo mocno 00:52:39 koncentrowaliśmy się na tym, by pomagać 00:52:41 programistom uzyskiwać dostęp do 00:52:43 najnowszych narzędzi i nadal ciężko nad 00:52:45 tym pracujemy. A oprócz realnego 00:52:48 wspierania twórców AI, pomagamy im 00:52:50 budować kariery i je rozwijać. Ja 00:52:52 naprawdę chcę poszerzyć to, co robimy, 00:52:54 aby dać programistom i wszystkim innym 00:52:55 możliwość tworzenia z AI. Na tym właśnie 00:52:58 skupia się Deep Learning AI i to jest 00:53:00 jeden z powodów, dla których odszedłem z 00:53:02 bajdu. Tak naprawdę zauważyłem to 00:53:04 zarówno wtedy, gdy kierowałem zespołem w 00:53:07 Google, jak i w Bidu. Są biznesy, które 00:53:09 jest sens budować w ramach Google i 00:53:11 takie, które jest sens budować w Bidu. 00:53:14 Ale są też inne rzeczy, jak choćby 00:53:15 zgodność z przepisami celnymi. Dlaczego 00:53:18 firma internetowa miałaby się tym 00:53:20 przejmować? Dlatego AI fund buduje wiele 00:53:23 różnych startupów i ta różnorodność 00:53:25 tematów, nad którymi możemy pracować w 00:53:27 AI fund, daje mi satysfakcję. AI, czyli 00:53:31 stosunkowo nowa inicjatywa to projekt, 00:53:33 nad którym pracuję z moją przyjaciółką 00:53:36 Kirsty Tan. Pracujemy nad doradztwem AI 00:53:39 dla dużych przedsiębiorstw. Okazuje się, 00:53:41 że jeśli chce się naprawdę znacząco 00:53:43 przyspieszyć wdrażanie AI, programiści 00:53:45 są ważni, indywidualni konsumenci są 00:53:48 ważni, ale musimy też doprowadzić do 00:53:50 tego duże firmy. Dlatego poświęcamy temu 00:53:52 sporo czasu we współpracy z firmą BINE i 00:53:55 innymi. BINE to fantastyczny zespół, 00:53:58 naprawdę niezwykle bystry. Mam zaszczyt 00:54:01 pracować z Kristofem, jego zespołem, po 00:54:03 to, by doradzać dużym firmom jak tworzyć 00:54:05 realną wartość i jak naprawdę wygrywać 00:54:07 dzięki AI. 00:54:09 Tak na marginesie zdecydował się pan 00:54:11 też, jak sądzę, być edukatorem, 00:54:13 komunikatorem AI. Jaki był powód, 00:54:16 dlaczego tak dużo pan uczy? 00:54:19 Zbudował pan swoją karierę i firmę, 00:54:22 pytam o kurserę, ale też o coś więcej, 00:54:24 bo Deep Learning AI to w dużej mierze 00:54:26 edukacja. 00:54:31 Dotyka pan czegoś związanego z samymi 00:54:33 fundamentalnymi wartościami? Powiem 00:54:36 panu, jak ustalam priorytety w tym, co 00:54:38 robię. Myślę, że są dwie rzeczy, które 00:54:40 stawiam najwyżej i w które naprawdę 00:54:42 wierzę. Uważam to za właściwe 00:54:44 wykorzystanie mojego ograniczonego 00:54:46 czasu. Pierwsza to działania, które 00:54:48 czynią ludzkość potężniejszą. Dlatego 00:54:51 zostałem naukowcem. Zostałem profesorem 00:54:53 na Stanfordzie, bo uważam, że badania 00:54:55 naukowe i przesuwanie granic tego, co 00:54:57 możliwe czynią ludzkość potężniejszą 00:55:00 dzięki wynajdywaniu nowych technologii. 00:55:02 Wierzę, że to sprawia, że ludzkość jest 00:55:04 potężniejsza. Druga rzecz, w którą 00:55:06 głęboko wierzę, to pomaganie innym w 00:55:08 realizacji ich marzeń. Ważne jest, aby 00:55:10 pomagać innym realizować ich marzenia, a 00:55:13 nie tylko pomagać innym realizować moje 00:55:15 marzenia. To istotna różnica i przez 00:55:18 całe życie czułem, że jeśli możemy dać 00:55:20 innym narzędzia i umiejętności, to 00:55:22 stawia ich to w lepszej sytuacji, by 00:55:24 mogli realizować swoje marzenia. Dlatego 00:55:26 właśnie edukacja poprzez Deep Learning 00:55:29 AI, kurserę zawsze była czymś, co zawsze 00:55:31 uważałem za bardzo motywujące. 00:55:35 Czy jest coś, czego pan żałuje, gdy 00:55:37 patrzy pan na swoją historię? Gdyby mógł 00:55:40 pan cofnąć czas? Czy zrobiłby pan 00:55:42 dokładnie to samo, a może coś inaczej? 00:55:45 Jest tak wiele rzeczy, które można robić 00:55:46 inaczej. Szczerze mówiąc, nie wiem. 00:55:48 Miałem szczęście podjąć kilka dobrych 00:55:50 decyzji, ale podjąłem też wiele tych 00:55:52 złych. Myślę, że jest mnóstwo kwestii w 00:55:54 rodzaju, czy powinienem był zatrudnić tę 00:55:56 konkretną osobę albo zrobić ten 00:55:58 konkretny projekt. Czy nie powinienem 00:56:00 był pracować nad tym projektem ciężej, 00:56:02 zamiast się poddać? 00:56:09 Mam jeszcze tylko jedno ostatnie pytanie 00:56:11 do pana, ale bardzo dla mnie ważne. 00:56:13 Gdyby mógł pan znaleźć odpowiedź na 00:56:16 jedno pytanie o rzeczywistość, to jakie 00:56:18 by ono było? 00:56:27 Chciałbym zrozumieć na czym polega 00:56:29 istota inteligencji. 00:56:32 Ma pan na myśli świadomość? 00:56:35 Materia jest przekształcana w świadomość 00:56:37 wewnątrz ludzkiego mózgu. Czy chodzi o 00:56:39 coś więcej? Właściwie nie chodzi o 00:56:41 świadomość. Dziękuję panu bardzo za 00:56:43 poświęcony czas. Yeah. |






