ხელოვნური ინტელექტის სამიტზე (Great AI Debate) ილონ მასკმა შესაბამის რისკებზე ისაუბრა. ილონ მასკი დარწმუნებული, რომ ხელოვნური ინტელექტი რისკის ფასად ღირს.
“ვფიქრობ, არსებობს გარკვეული შანსი, რომ ამან კაცობრიობის აღსასრულამდეც მიგვიყვანოს. ალბათ, ამის შანსები 10-დან 20%-მდეა და მე ამაში ჯოფრი ჰინტონსვეთანხმები. მიუხედავად ამისა, მგონია, რომ პოზიტიური სცენარი ნეგატიურზე უფრო მნიშვნელოვანია”, — თქვა მასკმა.
ცუდი სცენარი
რომან იამპოლსკიმ, ხელოვნური ინტელექტის უსაფრთხოების მკვლევარმა, Business Insider-ს განუცხადა, რომ მასკი მართალია, როდესაც ის ხელოვნური ინტელექტის ეგზისტენციალურ საფრთხეებზე საუბრობს. მიუხედავად ამისა, იამპოლსკის აზრით, მასკი ამ მხრივ რისკებს ბოლომდე ვერ აანალიზებს.
“ამის შანსები ბევრად უფრო მაღალია”, — თქვა იამპოლსკიმ.
იამპოლსკის აზრით, სცენარის ცუდად განვითარების შანსები 99.999999%-ია.
იამპოლსკის მიაჩნია, რომ ასეთი განვითარებული ხელოვნური ინტელექტის კონტროლს ვერ შევძლებთ. შესაბამისად, ცუდი სცენარისგან თავდაცვის ერთადერთი საშუალება უბრალოდ ზეგანვითარებული ხელოვნური ინტელექტის არ შექმნაა.
მასკის და ხელოვნური ინტელექტი
მასკს ბევრჯერ უთქვამს, რომ ხელოვნური ინტელექტის რეგულაცია საჭიროა. მიუხედავად ამისა, მან გასულ წელს ახალი კომპანია xAI დააარსა. xAI ხელოვნური ინტელექტის განვითარებაზე მომუშავე კომპანიაა, რომელიც OpenAI-ის კონკურენტია.
სამიტზე მასკმა ისიც აღნიშნა, რომ 2030 წლისთვის ხელოვნური ინტელექტი ადამიანურ ინტელექტს საბოლოოდ გადაასწრებს. მიუხედავად იმისა, რომ მასკი თავადაა ჩართული ხელოვნური ინტელექტის განვითარებაში, ის მაინც ამბობს, რომ თუ ასე გაგრძელდა კაცობრიობას საფრთხე დაემუქრება.
“ჩვენ ახლა AGI-ს (ხელოვნური ზოგადი ინტელექტი) ვქმნით. ეს ბავშვის აღზრდას ჰგავს, მაგრამ ეს ბავშვი გენიოსია, უფრო მეტიც, მას შეუძლია იყოს ღმერთი. შესაბამისად, ძალიან მნიშვნელოვანია ის თუ როგორ აღვზრდით მას”, — თქვა მასკმა სილიკონ ველის ღონისძიებაზე.
ჯერ კიდევ 2023 წელს შევიტყვეთ, რომ ჯოფრი ჰინტონმა, ასევე ცნობილმა, როგორც — “ხელოვნური ინტელექტის ნათლია” — დატოვა სამსახური Google-ში, რათა ესაუბრა თანამედროვე ტექნოლოგიის საფრთხეებზე.
ჰინტონმა მაშინ ხელოვნური ინტელექტის მეშვეობით გავრცელებული დეზინფორმაციის საფრთხეებზეც გაგვაფრთხილა. მისი თქმით, სტატისტიკური ადამიანი ვეღარ შეძლებს გაარჩიოს, რა არის რეალური და რა — ყალბი.
როგორც ჩანს, მასკი მას ნაწილობრივ ეთანხმება, მაგრამ ის თუ რამდენი სიკეთის მოცემა შეუძლია ხელოვნურ ინტელექტს, ესეც არაა დასავიწყებელი