ილონ მასკი: არსებობს 20%-იანი შანსი, რომ AI-მ კაცობრიობა გაანადგუროს, მაგრამ რისკად ღირს
ხელოვნური ინტელექტის სამიტზე (Great AI Debate) ილონ მასკმა AI-სთან დაკავშირებულ, შესაბამის რისკებზე ისაუბრა.
ხელოვნური ინტელექტის სამიტზე (Great AI Debate) ილონ მასკმა AI-სთან დაკავშირებულ, შესაბამის რისკებზე ისაუბრა.
მილიარდელი ბიზნესმენი დარწმუნებულია, რომ საფრთხის მიუხედავად, ხელოვნური ინტელექტი გარისკვად ღირს.
«ვფიქრობ, არსებობს გარკვეული შანსი, რომ ამან კაცობრიობის აღსასრულამდეც მიგვიყვანოს. ალბათ, ამის შანსები 10-დან 20%-მდეა და მე ამაში ჯოფრი ჰინტონს ვეთანხმები. მიუხედავად ამისა, მგონია, რომ პოზიტიური სცენარი ნეგატიურზე უფრო მნიშვნელოვანია». — თქვა მასკმა.
ხელოვნური ინტელექტის უსაფრთხოების მკვლევარმა, რომან იამპოლსკიმ Business Insider-ს განუცხადა, რომ ილონ მასკი მართალია, როდესაც ის ხელოვნური ინტელექტის ეგზისტენციალურ საფრთხეებზე საუბრობს.
თუმცა, მან აღნიშნა, რომ Tesla-ს აღმასრულებელი დირექტორი რისკებს ბოლომდე ვერ აანალიზებს.
«იმის შანსი, რაზეც მასკი საუბრობს, ბევრად უფრო მაღალია». — თქვა იამპოლსკიმ.
იამპოლსკის აზრით, სცენარის ცუდად განვითარების შანსები 99,999999%-ია.
მას მიაჩნია, რომ განვითარებული ხელოვნური ინტელექტის კონტროლს ვერ შევძლებთ. შესაბამისად, ცუდი სცენარისგან თავდაცვის ერთადერთი საშუალება უბრალოდ ზეგანვითარებული ხელოვნური ინტელექტის არშექმნაა.
მასკს ბევრჯერ უთქვამს, რომ ხელოვნური ინტელექტის რეგულაცია საჭიროა. მიუხედავად ამისა, მან გასულ წელს ახალი კომპანია xAI დააარსა. xAI ხელოვნური ინტელექტის განვითარებაზე მომუშავე კომპანიაა, რომელიც OpenAI-ის კონკურენტია.
სამიტზე მასკმა ისიც აღნიშნა, რომ 2030 წლისთვის ხელოვნური ინტელექტი ადამიანურ ინტელექტს საბოლოოდ გადაასწრებს. მიუხედავად იმისა, რომ ის თავადაა ჩართული ხელოვნური ინტელექტის განვითარებაში, მაინც ამბობს, რომ თუ ასე გაგრძელდა, კაცობრიობას საფრთხე დაემუქრება.
«ჩვენ ახლა AGI-ს (ზოგადი ხელოვნური ინტელექტი) ვქმნით. ეს ბავშვის აღზრდას ჰგავს, მაგრამ ეს ბავშვი გენიოსია, უფრო მეტიც, მას შეუძლია იყოს ღმერთი. შესაბამისად, ძალიან მნიშვნელოვანია ის თუ როგორ აღვზრდით მას». — თქვა მასკმა სილიკონ ველის ღონისძიებაზე.
ჯერ კიდევ 2023 წელს შევიტყვეთ, რომ ჯოფრი ჰინტონმა, ასევე ცნობილმა, როგორც — «ხელოვნური ინტელექტის ნათლია» — დატოვა სამსახური Google-ში, რათა თანამედროვე ტექნოლოგიის საფრთხეებზე ესაუბრა.
ჰინტონმა მაშინ ხელოვნური ინტელექტის მეშვეობით გავრცელებული დეზინფორმაციის საფრთხეებზეც გაგვაფრთხილა. მისი თქმით, სტატისტიკური ადამიანი ვეღარ შეძლებს გაარჩიოს, რა არის რეალური და რა — ყალბი.