Elon Musk, Steve Wozniak i inne znane osobowości zostały wezwane do “tymczasowego” wstrzymania dalszych prac nad AI. List otwarty w tej sprawie podpisało 2,6 tys. liderów z branży technologicznej oraz naukowców obawiających się o to, że rozwój sztucznej inteligencji może stanowić zagrożenie dla społeczeństwa i całej ludzkości.
- Elon Musk i inni znani dyrektorzy firm technologicznych zostali wezwani przez amerykański think tank do wstrzymania wysiłków na rzecz rozwoju AI
- Zdaniem osób, które podpisały się pod listem otwartym, sztuczna inteligencja stanowi zagrożenie dla społeczeństwa i ludzkości
- Partnerem artykułu jest broker Capital.com. Sprawdź jego ofertę i handluj akcjami, kryptowalutami oraz innymi instrumentami w formie CFD!
Elon Musk wezwany do zaprzestania prac nad AI
Amerykański think tank działający pod nazwą Future of Life Institute zainicjował wysiłki mające na celu wstrzymanie dalszego rozwoju sztucznej inteligencji. Organizacja ta stwierdziła, że stwarza ona zagrożenie dla społeczności, a dalsza praca nad nią będzie niosła ze sobą przykre konsekwencje dla całej ludzkości.
List otwarty podpisało ponad 2,6 tys. “liderów” z branży technologicznej oraz naukowców. Został on skierowany głównie do osób tj. Elon Musk (dyrektor generalny SpaceX i Tesli), Steve Wozniak (współzałożyciel Apple) i wielu innych znanych i wpływowych przedsiębiorców.
📢 We're calling on AI labs to temporarily pause training powerful models!
Join FLI's call alongside Yoshua Bengio, @stevewoz, @harari_yuval, @elonmusk, @GaryMarcus & over a 1000 others who've signed: https://t.co/3rJBjDXapc
A short 🧵on why we're calling for this – (1/8)
— Future of Life Institute (@FLIxrisk) March 29, 2023
Zdaniem wspomnianego instytutu działającego na rzecz zmniejszenia globalnych katastrofalnych oraz egzystencjalnych zagrożeń, rozwój AI stwarza niebezpieczeństwo. Wezwał on do natychmiastowego wstrzymania “szkolenia systemów sztucznej inteligencji potężniejszych niż GPT-4, na co najmniej 6 miesięcy”.
“Zaawansowana sztuczna inteligencja może spowodować głęboką zmianę w historii życia na Ziemi i powinna być planowana i zarządzana z proporcjonalną starannością i odpowiednimi zasobami. Niestety, ten poziom planowania i zarządzania nie ma (obecnie) miejsca” – stwierdził Future of Life Institute.
Niebezpieczeństwa związane ze sztuczną inteligencją
W połowie marca br. po ogromnym sukcesie ChatGPT w wersji GPT-3 wydany został nowy model językowy stworzony przez tę samą firmę – OpenAI. GPT-4 jest około 10-krotnie bardziej zaawansowany niż jego poprzednik.
Przedstawiciele Future of Life Institute stwierdzili jednak, że powstał tu wyścig w kierunku rozwoju AI, który wymknął się spod kontroli. Firmy dążą do tego, aby opracować potężniejszą sztuczną inteligencję od konkurencji. Organizacja ta dodała, iż nikt, nawet twórcy nowych rozwiązań nie mogą w pełni przewidzieć jej wpływu na społeczeństwo, ani też sprawować nad nią całkowitej kontroli.
Wśród głównych obaw występuje m.in, to, że AI może zalać kanały informacyjne treściami propagandowymi i siejącymi mowę nienawiści. Inną kwestią jest przejęcie przez sztuczną inteligencję wielu obowiązków, które dotychczas wykonywali ludzie. To by wiązało się z utratą przez wielu z nich obecnych miejsc pracy. Wreszcie think tank ten stwierdził, że AI stwarza zagrożenie egzystencjalne – w jego opinii rozwijanie sztucznej inteligencji może doprowadzić w przyszłości do zagłady ludzkości.
“Czy powinniśmy ryzykować utratę kontroli nad cywilizacją” – pyta w liście otwartym Future of Life Institute. Obok organizacja ta dodała, że takie decyzje nie powinny być dokonywane przez liderów technologicznych.
Inne stanowiska w kwestii AI
Nie wszyscy eksperci zgadzają się z argumentami przedstawionymi w petycji. Zdaniem dyrektora generalnego SingularityNET – Bena Goertzela sztuczna inteligencja nie zyska zdolności do zrozumienia lub nauczenia się dowolnego zadania intelektualnego, które mogą wykonać ludzie lub zwierzęta. Uznał on natomiast, że badania i rozwój rozwiązań wykorzystujących AI powinny zostać spowolnione dla takich rzeczy, jak broń biologiczna i broń jądrowa.
Innym znanym zagrożeniem, które wspomaga sztuczna inteligencja, jest tzw. deepfake. To technika łączenia obrazów twarzy ludzkich. Za jej pomocą możliwa jest manipulacja poprzez wykorzystywanie cudzego wizerunku do przedstawiania fałszywych wypowiedzi – jest to swego rodzaju sposób na podszywanie się pod drugą osobę za pośrednictwem wykreowanego obrazu wideo.
Jeszcze inne obawy dot. tego, czy w niektórych przypadkach sztuczna inteligencja nie narusza praw autorskich. Zdaniem Future of Life Institute rządy powinny wprowadzić moratorium. Stanowisko to poparł m.in. Mike Novogratz (dyrektor generalny Galaxy Digital i entuzjasta Bitcoina), który stwierdził, że władze za bardzo skupiają się teraz na regulacji kryptowalut, a nie robią nic w kierunku uregulowania AI.
Autor poleca również:
- Bitcoin i nowa konsolidacja pomiędzy 27-29 tysięcy dolarów
- Czy kryzys Deutsche Banku wpłynie na wzrost cen kryptowalut?
- Czy Ethereum będzie dobrym zakupem na najbliższe lata? Prognoza ceny ETH…
Dziękujemy, że przeczytałaś/eś nasz artykuł. Bądź na bieżąco! Obserwuj nas w Wiadomościach Google. Obserwuj nas >> |