პარასკევი, 3 მაისი, 2024 წ

დესკტოპის v4.2.1

Root Nationსტატუსიანალიტიკახელოვნური ინტელექტის ექვსი მცნება

ხელოვნური ინტელექტის ექვსი მცნება

-

მომდევნო წლები ხელოვნური ინტელექტის ტექნოლოგიების სწრაფი განვითარებით იქნება აღსანიშნავი. იქნებ აუცილებელია AI-ის შექმნისა და გამოყენებისთვის მკაფიოდ განსაზღვრული ჩარჩოების შემოღება? საკმარისია თუ არა 6 თვიანი გამოცდილება იმ ტექნოლოგიის დასარეგულირებლად, რომელიც ჯერ არ გასულა ლაბორატორიიდან? ეს კითხვა სულ უფრო ხშირად მოდის ექსპერტებისა და ჟურნალისტების პირიდან, როდესაც საქმე ხელოვნურ ინტელექტს ეხება. სულ უფრო ხშირად ისმის ხმები და მოწოდებები, მიიღონ ზომები ხელოვნური ინტელექტის დასარეგულირებლად - როგორც მომხმარებლის დონეზე, ასევე პროექტის განვითარების დონეზე. ასეთი მიმართვების ისტორია საკმაოდ დიდი ხნის წინ დაიწყო.

ხელოვნური ინტელექტის საყოველთაო არსებობა ციფრულ სივრცეში და, უპირველეს ყოვლისა, მოდელების, რომლებსაც შეუძლიათ შექმნან კონტენტი, რომელიც არ განსხვავდება ადამიანის მიერ შექმნილი შინაარსისგან, იწვევს ძალიან განსხვავებულ ემოციებს. ერთის მხრივ, ჩვენ გვყავს ენთუზიასტების ჯგუფი, რომლებიც მომავალს ხედავენ AI-ში და, მიუხედავად მისი შედარებით შეზღუდული შესაძლებლობებისა (რადგან ხელოვნური ინტელექტი არ ფიქრობს და ხშირად უბრალოდ იღებს ინფორმაციას ინტერნეტიდან), არ ეშინია მას ბევრი დავალების დაკისრება. . ბარიკადის მეორე მხარეს არის ჯგუფი, რომელიც გამოხატავს თავის სკეპტიციზმს და შეშფოთებას ხელოვნური ინტელექტის განვითარების მიმდინარე ტენდენციების მიმართ.

AI პოსტულატი

ხიდი ორ ჯგუფს შორის არის ხელოვნური ინტელექტის მკვლევარები, რომლებიც, ერთი მხრივ, მოჰყავთ უამრავი მაგალითი იმისა, თუ როგორ დადებითად აისახა ხელოვნურმა ინტელექტი გარემომცველ რეალობაზე. ამავდროულად, მათ ესმით, რომ ჯერ კიდევ ნაადრევია დასვენება და უზარმაზარ ტექნოლოგიურ ნახტომს ბევრი გამოწვევა და დიდი პასუხისმგებლობა მოაქვს. ამ დამოკიდებულების ნათელი მაგალითია ხელოვნური ინტელექტისა და მანქანათმცოდნეობის მკვლევართა საერთაშორისო ჯგუფი, რომელსაც ხელმძღვანელობს დოქტორი ოზლემ გარიბაი ცენტრალური ფლორიდის უნივერსიტეტიდან. 47 გვერდიანი პუბლიკაცია, რომელიც დაწერილია 26 მეცნიერის მიერ მთელი მსოფლიოდან, განსაზღვრავს და აღწერს ექვს გამოწვევას, რომლებიც კვლევითმა ინსტიტუტებმა, კომპანიებმა და კორპორაციებმა უნდა მიმართონ თავიანთი მოდელების (და მათ მიერ გამოყენებული პროგრამული უზრუნველყოფის) უსაფრთხოების მიზნით.

დიახ, ეს არის სერიოზული სამეცნიერო ნაშრომი მნიშვნელოვანი ახსნა-განმარტებით ხელოვნური ინტელექტის მომავლის გასაგებად. ვისაც აინტერესებს შეუძლია დამოუკიდებლად წაიკითხეთ ეს სამეცნიერო ანგარიში და გამოიტანე შენი დასკვნები. მარტივი სიტყვებით რომ ვთქვათ, მეცნიერებმა გამოავლინეს ხელოვნური ინტელექტის 6 მცნება. ხელოვნური ინტელექტის ყველა განვითარება და მოქმედება უნდა შეესაბამებოდეს მათ, რათა ის უსაფრთხო იყოს ადამიანებისთვის და მსოფლიოსთვის.

AI პოსტულატი

ჩემს სტატიაში, რომელიც სწორედ ამ სამეცნიერო ნაშრომის საფუძველზეა დაწერილი, შევეცდები ჩამოვაყალიბო ძირითადი პოსტულატები, კანონები, რომლის მიხედვითაც ხელოვნური ინტელექტი უნდა არსებობდეს და განვითარდეს. დიახ, ეს არის ჩემი თითქმის თავისუფალი ინტერპრეტაცია მეცნიერთა დასკვნების შესახებ ხელოვნური ინტელექტის განვითარებასთან დაკავშირებით და მათი წარმოდგენის მცდელობა, ასე ვთქვათ, ბიბლიურ ვერსიაში. მაგრამ ასე მინდოდა გაგაცნოთ პატივცემული მეცნიერების ეს სამეცნიერო ნაშრომი.

ასევე საინტერესოა: Building AI: ვინ უძღვება რბოლას?

პირველი კანონი: ადამიანის კეთილდღეობა

მკვლევართა პირველი პოსტულატი არის ხელოვნური ინტელექტის მუშაობის ფოკუსირება ადამიანის კეთილდღეობაზე. „ადამიანური ღირებულებების, საღი აზრისა და ეთიკის“ არარსებობის გამო, ხელოვნურმა ინტელექტს შეუძლია ისე იმოქმედოს, რაც გამოიწვევს ადამიანის კეთილდღეობის მნიშვნელოვან გაუარესებას. პრობლემები შეიძლება იყოს ხელოვნური ინტელექტის ზეადამიანური შესაძლებლობების შედეგი (მაგალითად, რამდენად ადვილად აჯობა ხელოვნური ინტელექტი ადამიანებს - და არა მხოლოდ ჭადრაკში), არამედ ისიც, რომ ხელოვნური ინტელექტი თავისთავად არ ფიქრობს და, შესაბამისად, ვერ ახერხებს მიკერძოების "გაფილტვრას" აშკარა შეცდომები.

AI პოსტულატი

- რეკლამა -

მკვლევარები აღნიშნავენ, რომ ხელოვნური ინტელექტის ტექნოლოგიებისადმი გადაჭარბებულმა ნდობამ შეიძლება უარყოფითად იმოქმედოს ადამიანების კეთილდღეობაზე. საზოგადოება, რომელსაც ნაკლებად ესმის, თუ როგორ მუშაობს რეალურად ხელოვნური ინტელექტის ალგორითმები, ზედმეტად ენდობა მას, ან, პირიქით, ნეგატიური დამოკიდებულება აქვს გარკვეული მოდელის, კერძოდ, ჩეთბოტების მიერ წარმოქმნილი შინაარსის მიმართ. ამ და სხვა ფაქტორების გათვალისწინებით, გარიბეის გუნდი ითხოვს ადამიანის კეთილდღეობის დაყენებას AI-ადამიანის სამომავლო ურთიერთქმედების ცენტრში.

ასევე წაიკითხეთ: ChatGPT: მარტივი მომხმარებლის სახელმძღვანელო

მეორე კანონი: პასუხისმგებლობა

ანგარიშვალდებულება არის ტერმინი, რომელიც მუდმივად ჩნდება ხელოვნური ინტელექტის სამყაროში იმ კონტექსტში, რისთვისაც ჩვენ ვიყენებთ მანქანურ სწავლებას და ზუსტად როგორ არის შემუშავებული და მომზადებული AI მოდელები და ალგორითმები. საერთაშორისო გუნდი ხაზს უსვამს, რომ ხელოვნური ინტელექტის დიზაინი, განვითარება და დანერგვა უნდა განხორციელდეს მხოლოდ კარგი განზრახვებით.

AI პოსტულატი

მათი აზრით, პასუხისმგებლობა უნდა განიხილებოდეს არა მხოლოდ ტექნიკურ, არამედ იურიდიულ და ეთიკურ კონტექსტში. ტექნოლოგია უნდა განიხილებოდეს არა მხოლოდ მისი ეფექტურობის თვალსაზრისით, არამედ მისი გამოყენების კონტექსტშიც.

"მოწინავე მანქანათმცოდნეობის ტექნიკის დანერგვით, სულ უფრო მნიშვნელოვანი ხდება იმის გაგება, თუ როგორ მიიღეს გადაწყვეტილება და ვინ არის პასუხისმგებელი მასზე“ – წერენ მკვლევარები.

მესამე კანონი: კონფიდენციალურობა

კონფიდენციალურობა არის თემა, რომელიც ბუმერანგის ყველა დისკურსს ეხება ტექნოლოგიების შესახებ. მითუმეტეს, როცა სოციალურ ქსელებში ყველაფერი განიხილება. თუმცა, ეს ძალზე მნიშვნელოვანია ხელოვნური ინტელექტისთვის, რადგან ის არ არსებობს მონაცემთა ბაზის გარეშე. და რა არის მონაცემთა ბაზები?

მეცნიერები აღწერენ მათ, როგორც „ძირითადი სამშენებლო ბლოკების აბსტრაქციას, რომლებიც ქმნიან იმ გზას, როგორსაც ჩვენ ვხედავთ სამყაროს“. ეს ბლოკები ჩვეულებრივ ამქვეყნიური მნიშვნელობებია: ფერები, ფორმები, ტექსტურები, დისტანციები, დრო. მიუხედავად იმისა, რომ ვიწრო AI ორიენტირებულია ერთ მიზანზე, როგორიცაა ჩამკეტის გახსნის ხარისხი მოცემული სინათლის ინტენსივობით, იყენებს საჯაროდ ხელმისაწვდომ ობიექტურ მონაცემებს, AI უფრო ფართო აპლიკაციებში (აქ, მაგალითად, ტექსტიდან გამოსახულების მოდელები, როგორიცაა Midjourney, ან ენების მოდელებს, როგორიცაა ChatGPT ) შეუძლიათ გამოიყენონ ადამიანების შესახებ და შექმნილი მონაცემები. ასევე უნდა აღინიშნოს პრესაში გამოქვეყნებული სტატიები, წიგნები, ილუსტრაციები და ინტერნეტში გამოქვეყნებული ფოტოები. ხელოვნური ინტელექტის ალგორითმებს აქვს წვდომა ყველაფერზე, რადგან ჩვენ თვითონ მივეცით მათ. თორემ ვერაფერს გაიგებს და არცერთ კითხვაზე პასუხს არ გასცემს.

AI პოსტულატი

მომხმარებლის მონაცემები ფუნდამენტურად აისახება როგორც იმ ადამიანებზე, ვისზეც გროვდება ეს მონაცემები, ასევე იმ ადამიანებზე, რომლებიც იმ სისტემაში არიან, სადაც ხელოვნური ინტელექტის ალგორითმები განხორციელდება.

ამიტომ, მესამე გამოწვევა ეხება კონფიდენციალურობის ფართო გაგებას და ისეთი უფლებების უზრუნველყოფას, როგორიცაა მარტო დარჩენის უფლება, საკუთარ თავთან წვდომის შეზღუდვის უფლება, პირადი ცხოვრების ან ბიზნესის საიდუმლოების უფლება, პირადი კონტროლის უფლება. ინფორმაცია, ანუ პიროვნების, ინდივიდუალობისა და ღირსების დაცვის უფლება. ეს ყველაფერი უნდა ჩაიწეროს ალგორითმებში, წინააღმდეგ შემთხვევაში კონფიდენციალურობა უბრალოდ არ იარსებებს და ხელოვნური ინტელექტის ალგორითმები შეიძლება გამოყენებულ იქნას როგორც თაღლითურ სქემებში, ასევე სისხლის სამართლის დანაშაულებში.

ასევე წაიკითხეთ: ChatGPT-ის გამოყენების 7 ყველაზე მაგარი გზა

მეოთხე კანონი: პროექტის სტრუქტურა

ხელოვნური ინტელექტი შეიძლება იყოს ძალიან მარტივი და ერთი დანიშნულების, მაგრამ უფრო დიდი მოდელების შემთხვევაში, ფართო და მრავალფუნქციური ხასიათით, პრობლემა არა მხოლოდ მონაცემთა კონფიდენციალურობაა, არამედ დიზაინის სტრუქტურაც.

მაგალითად, GPT-4, OpenAI-ის უახლესი ხელოვნური ინტელექტის მოდელი, მიუხედავად მისი ზომისა და გავლენისა AI სამყაროზე (და მის ფარგლებს გარეთ), არ გააჩნია სრულად საჯარო დოკუმენტაცია. ანუ, ჩვენ არ გვაქვს გააზრებული, რა არის საბოლოო მიზნები დეველოპერებისთვის, რისი მიღება სურთ მათ საბოლოო შედეგში. აქედან გამომდინარე, ჩვენ ვერ შევაფასებთ რისკებს, რომლებიც დაკავშირებულია ამ AI მოდელის გამოყენებასთან. მეორეს მხრივ, GPT-3, რომელიც გაწვრთნილი იყო 4chan ფორუმის მონაცემებზე, არის მოდელი, რომელთანაც ნამდვილად არ გსურთ ურთიერთობა. 4chan ფორუმი არის ერთ-ერთი ყველაზე საინტერესო ფენომენი ინტერნეტში. ეს არის აბსოლუტური, ტოტალური ანარქიის მაგალითი, რომელიც პრაქტიკულად არ შემოიფარგლება რაიმე ჩარჩოებით. სწორედ აქ შეიქმნა ჰაკერული ჯგუფები, როგორიცაა Anonymous ან LulzSec. ეს არის მრავალი ყველაზე პოპულარული მემის წყარო, საკამათო თემების განხილვისა და კიდევ უფრო საკამათო მოსაზრებების გამოქვეყნების ადგილი. მიუხედავად იმისა, რომ ინგლისურენოვანი გამოსახულების დაფა აღნიშნავს, რომ „ჯერჯერობით ეს კანონიერია“, ეს გარკვეულწილად საეჭვოა, იმის გათვალისწინებით, რომ 4chan ხანდახან ერევა მედიასთან, მათ შორის რასისტულ, ნაცისტურ და სექსისტურ შინაარსთან.

AI პოსტულატი

- რეკლამა -

პროფესორ გარიბეის გუნდს სურს, რომ ხელოვნური ინტელექტის თითოეულმა მოდელმა იმუშაოს მკაფიოდ განსაზღვრულ ჩარჩოებში. არა მხოლოდ იმ ადამიანის კეთილდღეობის გამო, ვისთანაც AI ურთიერთქმედებს, არამედ მოდელის გამოყენებასთან დაკავშირებული რისკების შეფასების შესაძლებლობის გამო. ნებისმიერი პროექტის სტრუქტურა უნდა მოიცავდეს პატივისცემას სხვადასხვა კულტურული ჯგუფებისა და დაინტერესებული მხარეების საჭიროებების, ღირებულებებისა და სურვილების მიმართ. ხელოვნური ინტელექტის შექმნის, ტრენინგის და დახვეწის პროცესი ფოკუსირებული უნდა იყოს ადამიანის კეთილდღეობაზე, ხოლო საბოლოო პროდუქტი - ხელოვნური ინტელექტის მოდელი - ფოკუსირებული უნდა იყოს თავად ადამიანური საზოგადოების პროდუქტიულობის გაძლიერებაზე და გაუმჯობესებაზე. მოდელებს, სადაც რისკების იდენტიფიცირება შეუძლებელია, უნდა ჰქონდეთ შეზღუდული ან კონტროლირებადი წვდომა. ისინი არ უნდა იყვნენ საფრთხე კაცობრიობისთვის, არამედ პირიქით, წვლილი შეიტანონ ადამიანისა და მთლიანად საზოგადოების განვითარებაში.

ასევე წაიკითხეთ: Twitter ელონ მასკის ხელში - საფრთხე თუ "გაუმჯობესება"?

მეხუთე კანონი: მმართველობა და დამოუკიდებელი ზედამხედველობა

ხელოვნური ინტელექტის ალგორითმებმა ფაქტიურად შეცვალეს სამყარო მხოლოდ ერთ წელიწადში. Bard by Google-ისა და Bing-ის პრემიერა გაიმართა Microsoft მნიშვნელოვნად იმოქმედა ორივე გიგანტის აქციებზე ბირჟაზე. სხვათა შორის, მათ ხელი შეუწყეს ამ კომპანიების აქციების ზრდას აქციების ფონზეც კი Apple. ChatGPT-ის აქტიური გამოყენება დაიწყო სკოლის მოსწავლეების მიერ, ისინი ურთიერთობენ მასთან, იკვლევენ და სვამენ კითხვებს. მთავარია, მას ჰქონდეს თვითსწავლის უნარი, გამოასწოროს თავისი შეცდომები. ხელოვნური ინტელექტი ზოგიერთი ქვეყნის მთავრობაშიც კი იწყებს მუშაობას. ეს არის რუმინეთის პრემიერ-მინისტრის, ნიკოლაე ჩუკას შემთხვევა დაიქირავა ვირტუალური ასისტენტი, რომელიც მიაწვდის მას საზოგადოების საჭიროებებს. ანუ ხელოვნური ინტელექტი სულ უფრო მნიშვნელოვან როლს თამაშობს ჩვენს ცხოვრებაში.

AI

ხელოვნური ინტელექტის, ადამიანებსა და გარემოს შორის მუდმივად მზარდი ურთიერთდამოკიდებულების გათვალისწინებით, მეცნიერები საჭიროდ მიიჩნევენ მმართველი ორგანოების შექმნას და მის განვითარებაზე დამოუკიდებელ ზედამხედველობას. ეს ორგანოები გააკონტროლებენ ხელოვნური ინტელექტის მთელ სასიცოცხლო ციკლს: იდეიდან განვითარებამდე და განხორციელებამდე. ხელისუფლება სწორად განსაზღვრავს ხელოვნური ინტელექტის სხვადასხვა მოდელებს და განიხილავს ხელოვნურ ინტელექტსა და სოციალური ცხოვრების საგნებს. ანუ ხელოვნური ინტელექტი შეიძლება გახდეს სასამართლო საქმის საგანი, ასევე სარჩელი. თუმცა, რა თქმა უნდა, არა ის პირადად, არამედ მისი დეველოპერები.

ასევე წაიკითხეთ: ყველაფერი Neuralink-ის შესახებ: კიბერპანკის სიგიჟის დასაწყისი?

მეექვსე კანონი: ადამიანისა და ხელოვნური ინტელექტის ურთიერთქმედება

ხელოვნური ინტელექტის პროგრამებში ყველას შეუძლია საკუთარი თავის პოვნა: ტექსტის გენერირება, სურათებში შინაარსის ამოცნობა, კითხვებზე პასუხის გაცემა, სურათების გენერირება, ფოტოების ადამიანების ამოცნობა, მონაცემების ანალიზი. ეს მრავალჯერადი გამოყენება არ არის მხოლოდ შეშფოთება იმ ადამიანებისთვის, რომლებიც ცდილობენ ხელოვნური ინტელექტის ადაპტირებას იურიდიულ და ეთიკურ სტანდარტებთან. ბევრს შიშობს, რომ ხელოვნური ინტელექტის მოდელებით შრომის ბაზრიდან გადაინაცვლებენ. იმის გამო, რომ ხელოვნური ინტელექტის ალგორითმები შეძლებენ იგივეს გაკეთებას უფრო სწრაფად, იაფად და შესაძლოა უკეთესადაც, ვიდრე ადამიანმა. ამავდროულად, არიან ადამიანები, რომლებიც ეყრდნობიან AI-ს სამუშაოში, ანუ ხელოვნური ინტელექტი მათთვის დღეს უკვე შეუცვლელი ასისტენტია.

AI

მაგრამ მეცნიერთა მიერ მოხსენიებული კვლევებიდან ირკვევა, რომ იაფი ხელოვნური მუშახელით ადამიანების ჩანაცვლება ჯერ კიდევ საკმაოდ შორსაა. ამის მიუხედავად, ისინი უკვე დაჟინებით მოითხოვენ ადამიანებსა და ხელოვნურ ინტელექტს შორის ურთიერთქმედების მკაცრი იერარქიის ჩამოყალიბების აუცილებლობას. მათი აზრით, ადამიანები ხელოვნურ ინტელექტზე მაღლა უნდა დააყენონ. ხელოვნური ინტელექტი უნდა შეიქმნას პიროვნების შემეცნებითი შესაძლებლობების პატივისცემით, მისი ემოციების, სოციალური ურთიერთქმედების, იდეების, დაგეგმვისა და ობიექტებთან ურთიერთობის გათვალისწინებით. ანუ ყველა სიტუაციაში სწორედ ადამიანი უნდა დადგეს ხელოვნურ ინტელექტზე, გააკონტროლოს მოდელის მიერ შექმნილი ქცევა და შინაარსი და იყოს პასუხისმგებელი მასზე. მარტივი სიტყვებით, ყველაზე მოწინავე ხელოვნური ინტელექტიც კი უნდა დაემორჩილოს ადამიანს და არ გასცდეს დაშვებულს, რათა ზიანი არ მიაყენოს მის შემქმნელს.

ასევე წაიკითხეთ: როგორ იყენებს და ადაპტირებს უკრაინა Starlink-ს ომის დროს

ვისოვკი

დიახ, ვინმე იტყვის, რომ მეცნიერებმა რაიმე მნიშვნელოვანი და ახალი არ მიუთითეს თავიანთ მოხსენებაში. ამაზე დიდი ხანია ყველა საუბრობს. მაგრამ უკვე ახლა აუცილებელია ხელოვნური ინტელექტის მოთავსება კანონების გარკვეულ ჩარჩოებში. GPT-4-მდე მიღწევა დანის ბრმად მიღწევას ჰგავს. ისინი მალავენ ჩვენგან ძირითად ინფორმაციას. ხელოვნური ინტელექტის ყველა განვითარება და განსაკუთრებით ChatGPT პროექტი Open AI-დან, ხშირად მახსენებს პატარა ბავშვის აღზრდას. ზოგჯერ ჩანს, რომ ეს უცხო წარმოშობის ბავშვია. დიახ, უცხოპლანეტელი, მაგრამ ის მაინც ბავშვია, რომელიც სწავლობს, უშვებს შეცდომებს, ზოგჯერ არაადეკვატურად იქცევა, გაღიზიანებულია, ეკამათება მშობლებს. მიუხედავად იმისა, რომ ის ძალიან სწრაფად იზრდება და ვითარდება.

AI

კაცობრიობამ შეიძლება არ გააგრძელოს განვითარება და ყველაფერი კონტროლიდან გამოვიდეს. ამიტომ, კაცობრიობამ უკვე უნდა გაიგოს, რატომ ვავითარებთ ამ ყველაფერს, ვიცოდეთ საბოლოო მიზნები, ვიყოთ „პასუხისმგებლიანი მშობლები“, რადგან წინააღმდეგ შემთხვევაში „ბავშვს“ შეუძლია უბრალოდ გაანადგუროს „მშობლები“.

ასევე წაიკითხეთ: 

Yuri Svitlyk
Yuri Svitlyk
კარპატების მთების შვილი, მათემატიკის ამოუცნობი გენიოსი, "იურისტი"Microsoft, პრაქტიკული ალტრუისტი, მემარცხენე-მარჯვენა
- რეკლამა -
დარეგისტრირდით
შეატყობინეთ შესახებ
სასტუმრო

0 კომენტარები
ჩაშენებული მიმოხილვები
ყველა კომენტარის ნახვა
გამოიწერეთ განახლებები