ხუთშაბათი, 2 მაისი, 2024 წ

დესკტოპის v4.2.1

Root Nationსტატუსიტექნოლოგიებირა არის ნერვული ქსელები და როგორ მუშაობს ისინი?

რა არის ნერვული ქსელები და როგორ მუშაობს ისინი?

-

დღეს ჩვენ შევეცდებით გავარკვიოთ რა არის ნერვული ქსელები, როგორ მუშაობენ ისინი და რა როლი აქვთ ხელოვნური ინტელექტის შექმნაში.

Ნეირონული ქსელები. ეს ფრაზა თითქმის ყველგან გვესმის. საქმე იქამდე მიდის, რომ მაცივრებშიც კი იპოვით ნერვულ ქსელებს (ეს არ არის ხუმრობა). ნერვული ქსელები ფართოდ გამოიყენება მანქანური სწავლების ალგორითმებით, რომლებიც დღეს გვხვდება არა მხოლოდ კომპიუტერებსა და სმარტფონებში, არამედ ბევრ სხვა ელექტრონულ მოწყობილობაში, მაგალითად, საყოფაცხოვრებო ტექნიკაში. და გიფიქრიათ ოდესმე რა არის ეს ნერვული ქსელები?

არ ინერვიულოთ, ეს არ იქნება აკადემიური ლექცია. არსებობს მრავალი პუბლიკაცია, მათ შორის უკრაინულ ენაზე, რომელიც ძალიან პროფესიონალურად და საიმედოდ ხსნის ამ საკითხს ზუსტი მეცნიერებების სფეროში. ასეთი გამოცემები ათზე მეტი წლისაა. როგორ არის შესაძლებელი, რომ ეს ძველი პუბლიკაციები კვლავ აქტუალური იყოს? ფაქტია, რომ ნერვული ქსელების საფუძვლები არ შეცვლილა და თავად კონცეფცია - ხელოვნური ნეირონის მათემატიკური მოდელი - შეიქმნა მეორე მსოფლიო ომის დროს.

რა არის ნერვული ქსელები და როგორ მუშაობს ისინი?

იგივე ინტერნეტით, დღევანდელი ინტერნეტი შეუდარებლად უფრო განვითარებულია, ვიდრე პირველი ელ.წერილის გაგზავნისას. ინტერნეტის საფუძვლები, ფუნდამენტური პროტოკოლები არსებობდა მისი შექმნის თავიდანვე. ყველა რთული კონცეფცია აგებულია ძველი სტრუქტურების საფუძველზე. ასეა ჩვენს ტვინთან დაკავშირებითაც, ყველაზე ახალგაზრდა ცერებრალური ქერქი ვერ ფუნქციონირებს უძველესი ევოლუციური ელემენტის გარეშე: ტვინის ღერო, რომელიც ჩვენს თავში ჯერ კიდევ უფრო ძველია, ვიდრე ჩვენი სახეობის არსებობა ამ პლანეტაზე.

ცოტა დაგაბნიე? ასე რომ, მოდით გავიგოთ უფრო დეტალურად.

ასევე საინტერესოა: ChatGPT: გამოყენების მარტივი ინსტრუქცია

რა არის ნერვული ქსელები?

ქსელი არის გარკვეული ელემენტების ერთობლიობა. ეს არის უმარტივესი მიდგომა მათემატიკაში, ფიზიკასა თუ ტექნოლოგიაში. თუ კომპიუტერული ქსელი არის ურთიერთდაკავშირებული კომპიუტერების ერთობლიობა, მაშინ ნერვული ქსელი აშკარად ნეირონების ნაკრებია.

ნერვული ქსელის

თუმცა, ეს ელემენტები სირთულით არც კი შეედრება ჩვენი ტვინისა და ნერვული სისტემის ნერვულ უჯრედებს, მაგრამ აბსტრაქციის გარკვეულ დონეზე, ხელოვნური ნეირონის და ბიოლოგიური ნეირონის ზოგიერთი მახასიათებელი საერთოა. მაგრამ აუცილებელია გვახსოვდეს, რომ ხელოვნური ნეირონი გაცილებით მარტივი ცნებაა, ვიდრე მისი ბიოლოგიური ანალოგი, რომლის შესახებ ჯერ კიდევ არ ვიცით ყველაფერი.

- რეკლამა -

ასევე წაიკითხეთ: ChatGPT-ის 7 ყველაზე მაგარი გამოყენება

ჯერ ხელოვნური ნეირონი იყო

ხელოვნური ნეირონის პირველი მათემატიკური მოდელი შეიქმნა 1943 წელს (დიახ, ეს არ არის შეცდომა, მეორე მსოფლიო ომის დროს) ორმა ამერიკელმა მეცნიერმა, უორენ მაკკალოჩმა და უოლტერ პიტსმა. მათ ეს მოახერხეს ინტერდისციპლინარული მიდგომის საფუძველზე, რომელიც აერთიანებდა ტვინის ფიზიოლოგიის საბაზისო ცოდნას (გაიხსენეთ დრო, როდესაც შეიქმნა ეს მოდელი), მათემატიკა და მაშინდელი ახალგაზრდა IT მიდგომა (მათ, სხვა საკითხებთან ერთად, გამოიყენეს ალან ტურინგის გამოთვლების თეორია. ). McCulloch-Pitts-ის ხელოვნური ნეირონის მოდელი არის ძალიან მარტივი მოდელი, მას აქვს მრავალი შეყვანა, სადაც შეყვანის ინფორმაცია გადის წონებს (პარამეტრებს), რომელთა მნიშვნელობები განსაზღვრავს ნეირონის ქცევას. შედეგად მიღებული შედეგი იგზავნება ერთ გამოსავალზე (იხ. მაკკულოხ-პიტსის ნეირონის დიაგრამა).

ნერვული ქსელის
ხელოვნური ნეირონის სქემა 1. ნეირონები, რომელთა გამომავალი სიგნალები შედიან მოცემული ნეირონის შესასვლელში 2. შეყვანის სიგნალების შემკრები 3. გადაცემის ფუნქციის კალკულატორი 4. ნეირონები, რომელთა შეყვანებზე გამოიყენება მოცემული ნეირონის სიგნალი 5. ωi - შეყვანის სიგნალების წონა

ასეთი ხის მსგავსი სტრუქტურა ასოცირდება ბიოლოგიურ ნეირონთან, რადგან როდესაც ვფიქრობთ ნახატებზე, რომლებიც ასახავს ბიოლოგიურ ნერვულ უჯრედებს, ეს არის დენდრიტების დამახასიათებელი ხის მსგავსი სტრუქტურა. თუმცა, არ უნდა დაემორჩილოს ილუზიას, რომ ხელოვნური ნეირონი გარკვეულწილად მაინც ახლოს არის რეალურ ნერვულ უჯრედთან. ამ ორმა მკვლევარმა, პირველი ხელოვნური ნეირონის ავტორებმა, მოახერხეს იმის დემონსტრირება, რომ ნებისმიერი გამოთვლითი ფუნქციის გამოთვლა შესაძლებელია ერთმანეთთან დაკავშირებული ნეირონების ქსელის გამოყენებით. თუმცა, გავიხსენოთ, რომ ეს პირველი ცნებები შეიქმნა მხოლოდ როგორც იდეები, რომლებიც არსებობდნენ მხოლოდ „ქაღალდზე“ და არ ჰქონდათ რეალური ინტერპრეტაცია საოპერაციო აღჭურვილობის სახით.

ასევე წაიკითხეთ: კვანტური კომპიუტერების შესახებ მარტივი სიტყვებით

მოდელიდან ინოვაციურ განხორციელებამდე

მაკკალოჩმა და პიტსმა შეიმუშავეს თეორიული მოდელი, მაგრამ პირველი რეალური ნერვული ქსელის შექმნას ათ წელზე მეტი მოუწია. მის შემქმნელად ითვლება ხელოვნური ინტელექტის კვლევის კიდევ ერთი პიონერი ფრენკ როზენბლატი, რომელმაც 1957 წელს შექმნა Mark I Perceptron ქსელი და თქვენ თავად აჩვენეთ, რომ ამ სტრუქტურის წყალობით მანქანამ შეიძინა უნარი, რომელიც ადრე მხოლოდ ცხოველებისა და ადამიანებისთვის იყო თანდაყოლილი: შეუძლია ისწავლოს. თუმცა, ახლა ჩვენ ვიცით, რომ ფაქტობრივად, სხვა მეცნიერებიც იყვნენ, რომლებმაც გამოიგონეს იდეა, რომ მანქანას შეეძლო სწავლა, მათ შორის როზენბლატამდეც.

მარკ I პერცეპტრონი

1950-იან წლებში კომპიუტერული მეცნიერების ბევრ მკვლევარსა და პიონერს გაუჩნდა იდეა, თუ როგორ უნდა აიძულოთ მანქანა აკეთოს ის, რაც მას დამოუკიდებლად არ შეეძლო. მაგალითად, არტურ სამუელმა შეიმუშავა პროგრამა, რომელიც თამაშობდა ქამებს ადამიანთან, ალენ ნიუელმა და ჰერბერტ საიმონმა შექმნეს პროგრამა, რომელსაც შეეძლო დამოუკიდებლად დაემტკიცებინა მათემატიკური თეორემები. ჯერ კიდევ როზენბლატის პირველი ნერვული ქსელის შექმნამდე, ხელოვნური ინტელექტის სფეროში კვლევის ორმა სხვა პიონერმა, მარვინ მინსკიმ და დინ ედმონდსმა, 1952 წელს, ანუ ჯერ კიდევ როზენბლატის პერცეპტრონის გამოჩენამდე, ააშენეს მანქანა სახელწოდებით SNARC (Stochastic Neural). Analog Reinforcement Calculator) - სტოქასტური ნერვული ანალოგური კალკულატორის გამაგრება, რომელსაც ბევრი მიიჩნევს, როგორც პირველი სტოქასტური ნერვული ქსელის კომპიუტერი. უნდა აღინიშნოს, რომ SNARC-ს საერთო არაფერი ჰქონდა თანამედროვე კომპიუტერებთან.

SNARC

ძლიერმა მანქანამ, რომელიც იყენებს 3000-ზე მეტ ელექტრონულ მილს და სათადარიგო ავტოპილოტის მექანიზმს B-24 ბომბდამშენიდან, შეძლო 40 ნეირონის მუშაობის სიმულაცია, რაც საკმარისი აღმოჩნდა მათემატიკური სიმულაციისთვის ვირთხის ძიების ლაბირინთიდან გასასვლელად. . რა თქმა უნდა, არ იყო ვირთხა, ეს იყო მხოლოდ დედუქციის პროცესი და ოპტიმალური გადაწყვეტის პოვნა. ეს მანქანა იყო მარვინ მინსკის დოქტორის ნაწილი.

adaline ქსელი

კიდევ ერთი საინტერესო პროექტი ნერვული ქსელების სფეროში იყო ADALINE ქსელი, რომელიც შეიქმნა 1960 წელს ბერნარ უიტროუს მიერ. ამრიგად, შეიძლება დაისვას კითხვა: ვინაიდან ნახევარ საუკუნეზე მეტი ხნის წინ მკვლევარებმა იცოდნენ ნერვული ქსელების თეორიული საფუძვლები და შექმნეს ასეთი გამოთვლითი ჩარჩოების პირველი სამუშაო დანერგვაც კი, რატომ დასჭირდა ამდენი დრო, 21-ე საუკუნემდე, შექმნათ რეალური გადაწყვეტილებები ნერვული ქსელების საფუძველზე? პასუხი ერთია: არასაკმარისი გამოთვლითი ძალა, მაგრამ ეს არ იყო ერთადერთი დაბრკოლება.

ნერვული ქსელის

მიუხედავად იმისა, რომ 1950-იან და 1960-იან წლებში, ხელოვნური ინტელექტის მრავალი პიონერი მოხიბლული იყო ნერვული ქსელების შესაძლებლობებით და ზოგიერთმა მათგანმა იწინასწარმეტყველა, რომ ადამიანის ტვინის ექვივალენტის მანქანა მხოლოდ ათი წლის იყო. დღეს ამის წაკითხვაც კი სასაცილოა, რადგან ჩვენ ჯერ კიდევ არ მივსულვართ ადამიანის ტვინის ეკვივალენტის მანქანური ექვივალენტის შექმნასთან და ჯერ კიდევ შორს ვართ ამ ამოცანის გადაწყვეტისგან. სწრაფად გაირკვა, რომ პირველი ნერვული ქსელების ლოგიკა მომხიბლავი და შეზღუდული იყო. ხელოვნური ნეირონებისა და მანქანათმცოდნეობის ალგორითმების გამოყენებით ხელოვნური ინტელექტის პირველმა განხორციელებამ შეძლო ამოცანების გარკვეული ვიწრო დიაპაზონის გადაჭრა.

თუმცა, როდესაც საქმე უფრო ფართო სივრცეებს ​​და რაიმე სერიოზულის გადაჭრას ეხებოდა, როგორიცაა შაბლონისა და გამოსახულების ამოცნობა, ერთდროული თარგმანი, მეტყველებისა და ხელნაწერის ამოცნობა და ა.შ. ნერვული ქსელების პირველმა განხორციელებამ უბრალოდ ვერ შეძლო ამის გაკეთება. რატომ არის ეს ასე? პასუხი გასცა მარვინ მინსკის (დიახ, იგივე SNARC-დან) და სეიმურ პეპერტის კვლევამ, რომელმაც 1969 წელს დაამტკიცა პერცეპტრონის ლოგიკის შეზღუდვები და აჩვენა, რომ მარტივი ნერვული ქსელების შესაძლებლობების გაზრდა მხოლოდ მასშტაბირების გამო არ მუშაობს. იყო კიდევ ერთი, მაგრამ ძალიან მნიშვნელოვანი ბარიერი - იმ დროისთვის ხელმისაწვდომი გამოთვლითი სიმძლავრე ძალიან მცირე იყო იმისთვის, რომ ნერვული ქსელები გამოეყენებინათ დანიშნულებისამებრ.

ასევე საინტერესოა:

- რეკლამა -

ნერვული ქსელების რენესანსი

1970-იან და 1980-იან წლებში ნერვული ქსელები პრაქტიკულად დავიწყებული იყო. მხოლოდ გასული საუკუნის ბოლოს გახდა შესაძლებელი გამოთვლითი სიმძლავრე იმდენად დიდი, რომ ადამიანებმა დაიწყეს მასში დაბრუნება და თავიანთი შესაძლებლობების განვითარება ამ სფეროში. სწორედ მაშინ გამოჩნდა ახალი ფუნქციები და ალგორითმები, რომლებმაც შეძლეს გადალახონ პირველი უმარტივესი ნერვული ქსელების შეზღუდვები. სწორედ მაშინ გაჩნდა მრავალშრიანი ნერვული ქსელების ღრმა მანქანათმცოდნეობის იდეა. რა ემართება რეალურად ამ ფენებს? დღეს ჩვენს გარემოში მოქმედი თითქმის ყველა სასარგებლო ნერვული ქსელი მრავალშრიანია. გვაქვს შეყვანის ფენა, რომლის ამოცანაა შეყვანის მონაცემების და პარამეტრების (წონების) მიღება. ამ პარამეტრების რაოდენობა მერყეობს ქსელის მიერ გადასაჭრელი გამოთვლითი პრობლემის სირთულის მიხედვით.

ნერვული ქსელის

გარდა ამისა, ჩვენ გვაქვს ეგრეთ წოდებული „ფარული ფენები“ – სწორედ აქ ხდება მთელი ის „ჯადოსნობა“, რომელიც დაკავშირებულია ღრმა მანქანათმცოდნეობასთან. სწორედ ფარული შრეებია პასუხისმგებელი ამ ნერვული ქსელის უნარზე, ისწავლოს და შეასრულოს საჭირო გამოთვლები. დაბოლოს, ბოლო ელემენტია გამომავალი ფენა, ანუ ნერვული ქსელის ფენა, რომელიც იძლევა სასურველ შედეგს, ამ შემთხვევაში: აღიარებული ხელწერა, სახე, ხმა, ტექსტური აღწერილობის საფუძველზე ფორმირებული გამოსახულება, ტომოგრაფიული ანალიზის შედეგი. დიაგნოსტიკური სურათი და მრავალი სხვა.

ასევე წაიკითხეთ: მე გამოვცადე და გამოვკითხე Bing-ის ჩატბოტი

როგორ სწავლობენ ნერვული ქსელები?

როგორც უკვე ვიცით, ცალკეული ნეირონები ნერვულ ქსელებში ამუშავებენ ინფორმაციას პარამეტრების (წონების) დახმარებით, რომლებსაც ენიჭებათ ინდივიდუალური მნიშვნელობები და კავშირები. ეს წონები იცვლება სწავლის პროცესში, რაც საშუალებას გაძლევთ დაარეგულიროთ ამ ქსელის სტრუქტურა ისე, რომ გამოიმუშავოს სასურველი შედეგი. კონკრეტულად როგორ სწავლობს ქსელი? აშკარაა, ის მუდმივად უნდა ივარჯიშოს. ნუ გაგიკვირდებათ ეს გამონათქვამი. ჩვენც ვსწავლობთ და ეს პროცესი არა ქაოტური, არამედ მოწესრიგებულია, ვთქვათ. ჩვენ მას განათლებას ვუწოდებთ. ნებისმიერ შემთხვევაში, ნერვული ქსელების მომზადებაც შესაძლებელია და ეს ჩვეულებრივ კეთდება სათანადოდ შერჩეული შეყვანის კომპლექტის გამოყენებით, რაც გარკვეულწილად ამზადებს ქსელს იმ ამოცანებისთვის, რომელსაც იგი შეასრულებს მომავალში. და ეს ყველაფერი მეორდება ეტაპობრივად, ზოგჯერ სასწავლო პროცესი გარკვეულწილად ემსგავსება თავად სასწავლო პროცესს.

მაგალითად, თუ ამ ნერვული ქსელის ამოცანაა სახეების ამოცნობა, ის წინასწარ არის გაწვრთნილი სახეების შემცველ სურათებზე. სასწავლო პროცესში იცვლება ფარული ფენების წონა და პარამეტრები. ექსპერტები აქ იყენებენ ფრაზას „ღირებულების ფუნქციის მინიმიზაცია“. ხარჯების ფუნქცია არის რაოდენობა, რომელიც გვეუბნება, თუ რამდენ შეცდომებს უშვებს მოცემული ნერვული ქსელი. რაც უფრო მეტად შევძლებთ ტრენინგის შედეგად ხარჯების ფუნქციის შემცირებას, მით უკეთესი იქნება ეს ნერვული ქსელი რეალურ სამყაროში. ყველაზე მნიშვნელოვანი მახასიათებელი, რომელიც განასხვავებს ნებისმიერ ნერვულ ქსელს კლასიკური ალგორითმის გამოყენებით დაპროგრამებული დავალებისგან, არის ის, რომ კლასიკური ალგორითმების შემთხვევაში, პროგრამისტმა უნდა განსაზღვროს ეტაპობრივად რა მოქმედებები შეასრულებს პროგრამას. ნერვული ქსელების შემთხვევაში, თავად ქსელს შეუძლია ისწავლოს დავალებების სწორად შესრულება დამოუკიდებლად. და ზუსტად არავინ იცის, როგორ ასრულებს თავის გამოთვლებს რთული ნერვული ქსელი.

ნერვული ქსელის

დღეს ნერვული ქსელები ფართოდ გამოიყენება და, ალბათ, გასაკვირია, ძალიან ხშირად იმის გაგების გარეშე, თუ როგორ მუშაობს მოცემულ ქსელში გამოთვლითი პროცესი რეალურად. ამის საჭიროება არ არის. პროგრამისტები იყენებენ მზა მანქანით შესწავლილ ნერვულ ქსელებს, რომლებიც მომზადებულია გარკვეული ტიპის შეყვანის მონაცემებისთვის, ამუშავებენ მათ მხოლოდ მათთვის ცნობილი გზით და აწარმოებენ სასურველ შედეგს. პროგრამისტს არ სჭირდება იმის ცოდნა, თუ როგორ მუშაობს დასკვნის პროცესი ნერვულ ქსელში. ანუ ადამიანი შორს რჩება გამოთვლების დიდი მოცულობისგან, ინფორმაციის მოპოვების მეთოდისა და ნერვული ქსელებით მისი დამუშავებისგან. საიდანაც კაცობრიობის გარკვეული შიში ხელოვნური ინტელექტის მოდელებთან დაკავშირებით. ჩვენ უბრალოდ გვეშინია, რომ ერთ მშვენიერ დღეს ნეირონული ქსელი თავის თავს დაუსვამს გარკვეულ ამოცანას და დამოუკიდებლად, ადამიანის დახმარების გარეშე, იპოვის მის გადაჭრის გზებს. ეს აწუხებს კაცობრიობას, იწვევს შიშს და უნდობლობას მანქანური სწავლების ალგორითმების გამოყენებაში.

ჩატი gpt

ეს უტილიტარული მიდგომა დღეს გავრცელებულია. ჩვენთანაც ასეა: ვიცით როგორ მოვამზადოთ ვინმე კონკრეტულ აქტივობაში და ვიცით, რომ ტრენინგის პროცესი ეფექტური იქნება, თუ სწორად განხორციელდება. ადამიანი შეიძენს სასურველ უნარებს. მაგრამ გვესმის თუ არა ზუსტად როგორ ხდება დედუქციის პროცესი მის ტვინში, რამაც გამოიწვია ეს ეფექტი? წარმოდგენა არ გვაქვს.

მეცნიერთა ამოცანაა შეძლებისდაგვარად შეისწავლონ ეს პრობლემები, რათა საჭიროების შემთხვევაში გვემსახურონ და დაგვეხმარონ და რაც მთავარია საფრთხედ არ იქცეს. როგორც ადამიანებს, ჩვენ გვეშინია იმის, რაც არ ვიცით.

ასევე საინტერესოა: 

Yuri Svitlyk
Yuri Svitlyk
კარპატების მთების შვილი, მათემატიკის ამოუცნობი გენიოსი, "იურისტი"Microsoft, პრაქტიკული ალტრუისტი, მემარცხენე-მარჯვენა
- რეკლამა -
დარეგისტრირდით
შეატყობინეთ შესახებ
სასტუმრო

0 კომენტარები
ჩაშენებული მიმოხილვები
ყველა კომენტარის ნახვა
გამოიწერეთ განახლებები