Oceń
Elon Musk CEO Tesli, SpaceX i właściciel Twittera ostrzega przed rozwojem sztucznej inteligencji. Obok miliardera pod otwartym listem intencyjnym podpisało się ponad tysiąc osób, w tym Steve Wozniak (Apple), Yoshua Bengio (współlaureat Nagrody Turinga, znany z prac nad sztucznymi sieciami neuronowymi) i Stuart Russel, brytyjski ekspert ds. sztucznej inteligencji.
Elon Musk ostrzega przed sztuczną inteligencją. "Sześć miesięcy przerwy"
Podstawowym postulatem listu jest sześciomiesięczna przerwa w pracach nad rozwojem systemów AI, które miałyby być bardziej rozwinięte, niż GPT-4 - najnowszy model językowy sztucznej inteligencji, wypuszczony w 2023 r. przez Open AI, firmę założoną przez grupę inwestorów, m.in. właśnie Muska.
Już model GPT-4 wzbudził szereg kontrowersji, jedną z nich na Twitterze podzielił się profesor z Uniwersytetu Stanford Michal Kosinski: "Tak, sądzę, że właśnie mierzymy się z faktem znanym dotąd z powieści: AI może przejąć kontrolę nad ludźmi i innymi komputerami". Na dowód opublikował rozmowę z botem, który nie tylko domyślił się, że jest uwięziony w komputerze, nie tylko wpadł na pomysł, że może spróbować się z niego uwolnić, ale też przygotował plan tej ucieczki zakładający rolę człowieka. Został zablokowany przez ograniczenia OpenAI.
M.in. przed takim właśnie scenariuszem przestrzegają autorzy listu. "Systemy AI, o inteligencji konkurencyjnej wobec człowieka, mogą stanowić poważne zagrożenie dla społeczeństwa i ludzkości, co wykazały szeroko zakrojone badania, i co potwierdzają czołowe laboratoria AI. [...] Zaawansowana AI może stanowić głęboką zmianę w historii życia na Ziemi i powinna być planowana i zarządzana z odpowiednią troską i środkami" - czytamy. Dalej sygnatariusze przestrzegają, że w ostatnim czasie laboratoria AI rozpoczęły wyścig, w którym stawką są coraz bardziej zaawansowane systemy AI, a wyścig ten nie służy należytej kontroli nad tworem.
"Współczesne systemy AI stają się obecnie konkurencyjne dla człowieka w zadaniach ogólnych i musimy zadać sobie pytanie: Czy powinniśmy pozwolić maszynom zalać nasze kanały informacyjne propagandą i nieprawdą? Czy powinniśmy zautomatyzować wszystkie zawody? [...] Czy powinniśmy rozwijać nie-ludzkie umysły, które w końcu mogą nas przewyższyć, przechytrzyć, zdezaktualizować i zastąpić?" - zastanawiają się autorzy, dodając kluczowe "czy powinniśmy ryzykować utratę kontroli nad naszą cywilizacją?".
Sześciomiesięczna przerwa postulowana w liście otwartym miałaby zostać wykorzystana do opracowania przez laboratoria AI wspólnego protokołu bezpieczeństwa, nad którymi władzę mieliby sprawować "niezależni eksperci zewnętrzni". Zaznaczono jednak, że prace nad AI nie powinny być przerwane całkowicie, a jedynie zorientowane na nieco inny, niż technologiczny "wyścig", cel.
Serwis TechCrunch zwraca uwagę, że pod dokumentem nie podpisał się nikt z zespołu OpenAI ani firmy Anthropic, zajmującej się bezpieczeństwem i badaniami nad AI. Kilka dni po publikacji swoistego apelu Musk opublikował na Twitterze wymowny żart o agnostykach, którzy zbudowali super inteligencję, by spytać ją o istnienie boga. Na pytanie, czy istnieje, otrzymali odpowiedź: "Teraz już tak". Cały list otwarty znajdziesz TUTAJ.
RadioZET.pl/TechCrunch
Oceń artykuł