პარასკევი, 3 მაისი, 2024 წ

დესკტოპის v4.2.1

Root NationსიახლეებიIT სიახლეებიტექნოლოგიების ექსპერტები AI ექსპერიმენტების შეჩერებას ითხოვენ

ტექნოლოგიების ექსპერტები AI ექსპერიმენტების შეჩერებას ითხოვენ

-

ტექნოლოგიის ლიდერებმა და AI-ის გამოჩენილმა მკვლევარებმა ხელი მოაწერეს ღია წერილი, რომელიც AI ლაბორატორიებსა და კომპანიებს მოუწოდებს „დაუყოვნებლივ შეაჩერონ“ მუშაობა.

ხელმომწერები, მათ შორის სტივ ვოზნიაკი და ელონ მასკი, თანხმდებიან, რომ რისკები მოითხოვს მინიმუმ ექვსთვიან შესვენებას იმ ტექნოლოგიების წარმოებაში, რომლებიც სცილდება ფარგლებს. GPT-4. ეს არის იმისთვის, რომ აიღოთ სიხარული და კმაყოფილება ხელოვნური ხელოვნური ინტელექტის სისტემებიდან, რომლებიც ახლა არსებობს, და ადამიანებს საშუალება მისცეთ მოერგოს მათ და დაინახონ, რომ ისინი სასარგებლოა.

ტექნოლოგიების ლიდერები და ექსპერტები AI ექსპერიმენტების შეჩერებას ითხოვენ

წერილში დასძენს, რომ AI სისტემების უსაფრთხოების უზრუნველსაყოფად საჭიროა სიფრთხილე და წინდახედულობა, მაგრამ ისინი იგნორირებულია. მითითება GPT-4-ზე, ახალ OpenAI მოდელზე, რომელსაც შეუძლია ტექსტით უპასუხოს წერილობით ან ვიზუალურ შეტყობინებებზე, ხდება მაშინ, როდესაც კომპანიები იბრძვიან ტექნოლოგიის გამოყენებით დახვეწილი ჩატის სისტემების შესაქმნელად. მაგალითი, Microsoft ცოტა ხნის წინ დაადასტურა, რომ მისი განახლებული Bing საძიებო სისტემა მუშაობს GPT-4 მოდელზე 7 კვირაზე მეტი ხნის განმავლობაში, და Google-მა ცოტა ხნის წინ ოფიციალურად წარადგინა Bard – საკუთარი გენერაციული ხელოვნური ინტელექტის სისტემა LaMDA-ზე დაფუძნებული.

ხელოვნური ინტელექტის შესახებ შეშფოთება დიდი ხანია არსებობს, მაგრამ ყველაზე მოწინავე ტექნოლოგიების მიღების რბოლა აშკარაა. ხელოვნური ინტელექტი პირველი უკვე საგანგაშოა. „ბოლო თვეების განმავლობაში, ხელოვნური ინტელექტის ლაბორატორიები ჩაებნენ უკონტროლო რბოლაში, რათა განავითარონ და განახორციელონ სულ უფრო ძლიერი ციფრული გონება, რომლის გაგება, პროგნოზირება ან საიმედოდ გაკონტროლება არავის, მათ ავტორებსაც კი არ შეუძლია“, - ნათქვამია წერილში.

ტექნოლოგიების ლიდერები და ექსპერტები AI ექსპერიმენტების შეჩერებას ითხოვენ

წერილი გამოაქვეყნა არაკომერციულმა ორგანიზაციამ Future of Life Institute (FLI), რომელიც მუშაობს გლობალური კატასტროფული და ეგზისტენციალური რისკების მინიმუმამდე დაყვანაზე და ახალი ტექნოლოგიების, კერძოდ ხელოვნური ხელოვნური ინტელექტის ბოროტად გამოყენებაზე. მანამდე მასკმა 10 მილიონი დოლარი შესწირა FLI-ს ხელოვნური ინტელექტის უსაფრთხოების კვლევისთვის. მის და ვოზნიაკის გარდა, ხელმომწერები არიან AI-ს დარგის მრავალი მსოფლიო ლიდერი, როგორიცაა AI და ციფრული პოლიტიკის ცენტრის პრეზიდენტი მარკ როტენბერგი, MIT ფიზიკოსი და FLI პრეზიდენტი მაქს ტეგმარკი და ავტორი იუვალ ნოა ჰარარი.

ჰარარი ასევე თანაავტორი იყო New York Times-ში გასულ კვირას, რომელიც აფრთხილებდა რისკების შესახებ. ხელოვნური ინტელექტი, რომელზეც მასთან მუშაობდნენ ჰუმანური ტექნოლოგიების ცენტრის დამფუძნებლები და ღია წერილის სხვა ხელმომწერები ტრისტან ჰარისი და აზა რასკინი.

ზარი მოჰყვა შარშან 700-ზე მეტი მანქანათმცოდნე მკვლევარის გამოკითხვას, რომელშიც თითქმის ნახევარმა თქვა, რომ დაახლოებით 10%-იანი ალბათობაა ხელოვნური ინტელექტისგან „უკიდურესად ცუდი შედეგების“, მათ შორის ადამიანის გადაშენების. როდესაც ჰკითხეს უსაფრთხოების შესახებ ხელოვნური ინტელექტის კვლევაში, გამოკითხულთა 68%-მა თქვა, რომ მეტი ან ბევრად მეტი უნდა გაკეთდეს.

ასევე წაიკითხეთ:

ჯერილოEngadget
დარეგისტრირდით
შეატყობინეთ შესახებ
სასტუმრო

0 კომენტარები
ჩაშენებული მიმოხილვები
ყველა კომენტარის ნახვა
გამოიწერეთ განახლებები