Prof. Andrzej Dragan o sztucznej inteligencji. „Coraz mniej kontrolujemy rozwój” [Rozwój i kontrola AI]

Prof. Andrzej Dragan o Sztucznej Inteligencji

FXMAG 103 000 subskrybentów
189 808 4 673 05/02/2025

Prof. Andrzej Dragan, fizyk teoretyk i artysta, w rozmowie z FXMAG podczas XTB Investing Masterclass 2024, dzieli się swoimi przemyśleniami na temat dynamicznego rozwoju sztucznej inteligencji (AI). Omawia kluczowe zagadnienia dotyczące przyszłości AI, jej wpływu na społeczeństwo oraz kwestii kontroli nad jej rozwojem. Psychologia tradingu odgrywa kluczową rolę w podejmowaniu decyzji, szczególnie w kontekście nowych technologii.

Kluczowe punkty dyskusji:

  • Czy kontrolujemy rozwój AI i rozumiemy algorytmy, które tworzymy?
  • Jak szybko rozwija się AI i jakie są jej zdolności logicznego myślenia w porównaniu z człowiekiem?
  • Czy powinniśmy się obawiać sztucznej inteligencji, czy raczej fascynować jej potencjałem?
  • Co jest najważniejszym aktywem XXI wieku i jak odróżnić dobrą od złej informacji w dobie AI?
  • Dlaczego sztuczna inteligencja nazywana jest „sztuczną” i jakie są jej ograniczenia w porównaniu z ludzką inteligencją?
  • Skąd czerpać energię na rozwój AI i jakie są wyzwania związane z jej zasilaniem?

Zapraszamy do obejrzenia filmu i zapoznania się z pogłębioną analizą prof. Dragana na temat sztucznej inteligencji. Dowiedz się więcej o:

  • Różnych typach algorytmów AI, w tym autonomicznych algorytmach takich jak AlphaGo i AlphaZero. Dyscyplina w tradingu jest kluczowa, niezależnie od stosowanych narzędzi i algorytmów.
  • Poziomie logicznego myślenia AI i jej zdolnościach w rozwiązywaniu problemów.
  • Wyzwaniach związanych z kontrolą i etycznymi aspektami rozwoju AI.
  • Zapotrzebowaniu energetycznym AI i poszukiwaniu efektywnych źródeł energii.

Obejrzyj film i dołącz do dyskusji na temat przyszłości sztucznej inteligencji! Prop trading to jeden z obszarów, na który AI może mieć znaczący wpływ.

Zobacz pełną transkrypcję filmu

trzeba się pogodzić z faktami one są takie że coraz mniej kontrolujemy rozwój coraz mniej rozumiemy algorytmy które tworzymy my rozumiemy algorytmy treningowe ale wytwory tego treningu to są algorytmy które nie wiemy jak one działają są algorytmy które w ogóle nie potrzebują żadnych danych do treningu to są takie autonomiczne algorytmy tak jak Alpa Geometry o którym mówiłem czy Alfa zero które Ucz się grać w gry poprzez Self Play i w ten sposób uczy się reguł gry uczy się strategii gry i tak dalej Co to jest inteligencja nie wiemy co to jest świadomość ale inteligencja to jest umiejętność ostrzegania iie def algorytm kompresji danych jest inteligentny żeby koma dost analogie w ciągu z przyszłości się w ogó nie da przewidywać to się jeszcze nikomu nie udało ludzie oczywiście próbują to robić jedyną osobą która wie jaka jest przyszłość to jest Jan partnerem odcinka jest xtb organizator konferencji masterc odbierz nagrania z konferencji klikając w link w opisie profesor Andrzej dran pawa gościem wiam ser z wywiadów wspominałeś o tym że żeby utrzymać algorytmy w ryzach nie powinniśmy ich wpinać do internetu po czym czat GPT to było parę miesięcy po tej wypowiedzi wpiął i dał od razu dostęp ludziom do tego narzędzia Czy to jest taki pierwszy krok do tego żebyśmy się zaczęli martwić i że te algorytmy rzeczywiście nam się wymknął tylko profesor taką tezę że jeżeli zależ og na kontroli sytuacj to jest któ warto byłoby robić możliwość wyciąg wtyczki aleem to jest nasz cel żeby cokolwiek kontrolować No w końcu cała idea uczenia maszynowego polega na tym żeby nie programować tych programów nie pisać kodu tylko żeby pozwalać do pewnego stopnia autonomicznie tym modelom uczyć się na danych treningowych więc to że ta wola poba kontroli coś wad minęło razie podchodzisz do tematu zobaczymy jak to będzie wyglądało i nie da się do końca tego przewidzieć kolejnych faz ewentualnego rozwoju sztucznej inteligencji nie no przyszłości się w ogóle nie da przewidywać to się jeszcze nikomu nie udało i ludzie oczywiście próbują to robić jedyną osobą która wie jaka jest przyszłość to jest Jan lek z mety ale on tej zasadzie z tą przyszłość że jak przewiduje coś jest absolutnie Niemożliwe to to się dzieje następnego dnia więc jest tego typu przewidywanie no możemy się cokolwiek starać domyślać co się może wydarzyć na podstawie ekstrapolacji trendów No to tyle w zasadzie natomiast ewidentnie jest tak że jesteśmy w ciekawych czasach w których algorytmy robią rzeczy które jeszcze chwilę wczasie nam się wydały niemożliwe i gdyby pokazać to co te algorytmy robią dzisiaj nam samym TR lata temu to by Nikt nie uwierzył że w ogóle kiedy kiedykolwiek się wydarzy rok temu na wywiadzie który ukazał się na naszym kanale mówiłeś o tym że jeżeli chodzi o poziom logicznego myś to aktualnie sztuczna inteligencja plasuje się na poziomie 8 latka Co się zmieniło w czasie tych ostatnich 12 miesięcy to jest kolejnych kilka lat rozwoju jeżeli chodzi chociażby o poziom logicznego myślenia zaczy w takich prostych testach zagadka logiczna to rzeczywiście te modele do niedawna dp4 było całkiem niezłe i było lepsze od ośmioletnich dzieci pod wieloma względami nie pod wszystkimi natomiast ich główną gm ograniczeniem było to że one inwestowały określoną ilość moc obliczeniowych w jeden token wyprodukowanego tekstu i to jest coś co Daniel keman psycholog porównywał porównał by do czegoś co nazywamy systemem 1 w naszym myśleniu ky automatycznie udzielamy odpowiedzi bez głębszej refleksji No i to trochę jest tak że taki model mógłbym zapytać jak skwantowana się tyle samo oczywiście skala trudności znie różne i te modele nie były w stanie ocenić trudności problemu i teraz pojawiły się pierwsze nieśmiałe próby zmiany tego stworzenia algorytmów które będą czymś na kształt systemu 2 który analizuje trudność problemu ma jakąś autor refleksję koryguje swoją odpowiedź i w zależności od tego czy jest łatwe czy trudne inwestuje więcej albo mniej zasobów No i na przykład GPT ten najnowszy model o1 ma właśnie tego typu umiejętność albo ambicja żebym taką umiejętność posiadał właśnie żeby po raz pierwszy analizować problemy w sposób bardziej krytyczny i oczywiście jest lepszy w rozwiązani problemów trudniej go Przyłapać na jakiś kompletnych bzdurach No jeśli chodzi o problemy z fizyki umiejętność rozwiązania ich to o1 rozwiązuje na przykład elektrodynamiki klasycznej problemy które byłyby za trudne dla moich studentów na egzaminie kolokwialnym więc całkiem niezły Oczywiście tutaj mówię o problemach podręcznikowych ale na przykład modele stworzone przez Deep mind C toryczny z medycyny taki Alpa Geometry który rozwiązuje problemy matematyczne to już nie są problemy podręcznikowe tylko problemy z olimpiad matematycznych które z definicji są takimi problemami których nie ma w żadnych podręcznikach bo to są oryginalne problemy i te najnowsze modele firmy Deep mind nie są modele językowe tylko zupełnie inne one są w stanie rozwiązywać problemy z olimpiady matematycznej na poziomie między mniej więcej Srebrnego medalisty w tym roku Gdyby taki algorytm wystartował to dostałby SB meta bo go testowano i to są oryginalne problemy których nie było w dany treningowych chociaż bez tego powodu że te modele nie miał nie mają danych treningowych już tylko S uczą na danych syntetycznych więc jest dużo zupełnie jakościowych różnic w porównaniu z tym co było rok temu Po pierwsze te modele które ma jakiś poziom autorefleksji jakiś prymitywny jeszcze system 2 cli coś na kształt trochę głębszego rozumowania no i no te modele które Deep mind robi czyli Alpha Geometry które bez jakichkolwiek danych treningowych już nie Tylko grają w szachy Czy w go ale rozwiązują problemy matematyczne całkiem Patrząc z perspektywy generalnie treści które pojawiały się na YouTubie związane związanej ze sztuczną inteligencją to dominował strach tytuły które bardzo mocno powodowały taki niepokój wśród odbiorcy co do tego co sztuczna inteligencja może przynieść w czasie tych ostatnich 12 miesięcy twoje podejście odczucia związane ze sztuczną inteligencją one uległy jakimkolwiek zmianom że jest trochę bardziej optymistycznie ale ja nie widzę powodu do strachu no trzeba się pogodzić z faktami one są takie że coraz mniej kontrolujemy rozwój coraz mniej rozumiemy algorytmy które tworzymy my rozumiemy algorytmy treningowe ale wytwory tego treningu to są algorytmy które nie wiemy jak one działają są nie [Muzyka] algorytmizacji będzie się pewnie zmniejszał do czego doprowadzi to nie wiemy są różne przypuszczenia ale to nie jest jakiś powód żeby żeby się tym jakoś fundamentalnie przejmować No to jest raczej bard bardziej fascynujące niż niepokojące dla mnie przynajmniej w XX wieku mówi się o tym że najważniejszym aktywem jest informacja widzimy to chociażby po tym jak dużo danych potrzebuje sztuczna inteligencja żeby się uczyć jak odróżnić dobrą od złej informacji pod kątem jakości czy my w ogóle jesteśmy w stanie to w jakikolwiek sposób kwantyfikować zależy jaka inteligencja bo są algory w ogóle nie potrzebują żadnych danych do treningu to są takie autonomiczne algorytmy tak jak Alfa Geometry o którym mówiłem czy Alfa zero które Ucz się grać w gry poprzez Self Play i ten sposób uczy się reguł gry uczy się strategii gry i tak dalej więc to jest tak że modele językowe potrzebują dużo danych i to najlepiej dobrej jakości ale są przykład przykłady algorytmów które w ogóle nie potrzebują danych dostarczanych przez człowieka więc tutaj jest to to ważne rozróżnienie i oczywiście modele językowe które robią taką furorę które są karmione gigantyczny w tym mcie są od zależne ale to jest też kwestia pewnie niezbyt odległej przyszłości kiedy nauczymy się tworzyć algorytmy Które coraz lepiej rozumując rozwiązują problemy które dajemy jest takie rozumowanie w sensie ludzkim to jest coś zupełnie innego i robią to coraz lepiej z coraz mniejszą ilością danych treningowych więc to to jest pewnie przyszłość na którą teraz snej intc Bardo będzie miała jakąś świadomość niż tylko to taki taki element wnioskowania w ogóle dlaczego mówimy o inteligencji tej stworzonej przez niby człowieka że i używamy tego przedrostka sztuczna Bo w takim razie Przecież nawet takie twory jak rzeczy które tworzą artyści to też poniekąd można by użyć sformułowania że są sztuczne to ja pr Co to jest inteligencja nie wiem co to jest świadomość ale inteligencja to jest umiejętność dostrzegania analogii i przy takiej definicji algorytm kompresji danych jest inteligentny bo żeby kompresować dane trzeba umie dostrzegać analogię w ciągu zer jedynek więc w tym sensie świadomość inteligencja są od siebie w ogóle niezależne mogę mieć kompletnie nieświadomy algorytm kompresji danych które jest jakoś tam inteligentny prymitywnie i mogę mieć świadomego człowieka który nie jest za bardzo inteligentny w ogóle oderwane od siebie pojęcia i o ile rozumiem cokolwiek to warunki konieczne żeby się świadomość w ogóle mogła pojawić nie są spełnione przypadk tych algorytmów nie wiemy co to jest świadomość ale jakie są warunki konieczne niektóre i jednym z nich jest umiejętność obserwowania swoich stanów wewnętrznych To jest jeden z warunków koniecznych żeby się świadomość mogła pojawić i w większości modeli które tworzymy tego warunku nie ma one nie obserwują same siebie więc tam nie ma żadnej świadomości wszystko jakiś poziom inteligencji jest gdybyśmy mieli przepuszczać takie modele przez testy inteligencji to one jakiś wynik osiągają już nie jest to wynik kompletnie tragiczny walczymy jeżeli chodzi o wyścig związany z rozwojem technologicznym walczymy Na dwóch polach jeden to jest pole zebrania informacji zdobywania tych informacji później ich przetwarzania mamy też takie pole które ostatnio pokazały działania Microsoftu który przejął udziały w w elektrowni atomowej po to żeby zdobywać też energię bo cały ten ekosystem jakoś musi funkcjonować ta siła nacisku nie przeniesie się w stronę właśnie zdobywania tej energii żeby ta sztuczna inteligencja w ogóle mogła funkcjonować No w zeszłym roku we wrześniu doze Microsoft umieścił na swojej stronie internetowej ogłoszenie pracę dla fizyków jądrowych bo właśnie chcą to nowe centra obliczeniowe Stargate które mają kosztować tam 100 miliardów mniej więcej przez parę lat trzeba jakoś zasilać No Koszt takiej elektrowni to pewnie idzie w pojedynczych miliardach dolarów więc to nie jest duży procent całej inwestycji No i o wiele wygodniej jest mieć swoje prywatne źródło energii więc pewnie tak będzie że dopóki nie Uczymy się optymalizować energetycznie tych modeli a na razie One są bardzo nieefektywnie energetycznie zużywają dużo więcej energii niż to jest potrzeba wiemy to bo nasz mózg ma o wiele większy obieg informacja a jest jego moc którą pobiera to jest tyle co moc żarówki 20 watowej więc a a te algorytmy są bardzo nieefektywne więc na razie jeszcze nie przejmujemy się tym bardzo skaluj to ile wlezie i trzeba to jakoś karmić energią ale jak się ta energia zacznie kończyć to trzeba będzie się poważnie zastanowić jak to zoptymalizować i jest tutaj duże pole do popisu jesteśmy bardzo daleko od tego żeby zbliżyć się w ogóle do poziomu ludzkiego mózgu pod tym względem bo na razie na tym nikomu nie zależy bo mamy możemy tą energię se po prostu dostarczać na przykład z elektrowni jądrowych panie profesorze Pięknie dziękuję za rozmowę profesor Andrzej Dragan był moim i państwa goście Dziękuję Jeżeli Podobało ci się to nagranie to koniecznie Zostaw łapkę w górę Weź udział w dyskusji i Odwiedź nasz portal fxmag.pl nasze poczynania możesz śledzić na portalu x i na Facebooku i [Muzyka]

Przewijanie do góry