კატეგორიები: IT სიახლეები

Microsoft გამოაცხადა დამცავი AI გადაწყვეტა GPT-4 Security Copilot-ზე დაფუძნებული

ხელოვნური ინტელექტის (AI) სისტემები უკვე გამოიყენება გრაფიკის, ჩეთბოტების შესაქმნელად და ჭკვიანი სახლების გასაკონტროლებლად. კომპანია Microsoft AI-ს მიანდო თანამედროვე ცხოვრების ერთ-ერთი ყველაზე მნიშვნელოვანი სფერო – დაცვა კიბერ საფრთხეებისგან. Security Copilot ინსტრუმენტი საშუალებას გაძლევთ ამოიცნოთ კიბერშეტევა მაშინაც კი, როცა აშკარა ნიშნები არ არის და გეხმარებათ მის აღმოფხვრაში.

იმ სიტუაციებში, როდესაც თქვენი კომპიუტერის უსაფრთხოება რაიმე მიზეზით დაზიანებულია, Security Copilot დაგეხმარებათ განსაზღვროთ, რა მოხდა, რა უნდა გააკეთოთ და როგორ თავიდან აიცილოთ მსგავსი ინციდენტები სხვებისთვის. კომპანიამ GPT-4 მოდელზე დაფუძნებული ახალი გადაწყვეტა წარადგინა - Security Copilot ეხმარება კორპორატიულ კლიენტებს საფრთხეებთან გამკლავებაში.

ჯერჯერობით, ინსტრუმენტი ხელმისაწვდომია მხოლოდ კორპორატიული კლიენტებისთვის. იგივე დიდი ენის მოდელი, რომელიც აძლიერებს აპებს, როგორიცაა Bing Chat, დგას Security Copilot-ის უკან. თუმცა, ამ შემთხვევაში საუბარია IT პროფესიონალების მიერ გამოყენებულ მასალებზე და ტერმინოლოგიაზე სპეციალურად მომზადებულ ვარიანტზე. გარდა ამისა, Microsoft უკვე აქვს ინტეგრირებული Copilot უსაფრთხოების სხვა ინსტრუმენტებთან. კომპანია გვპირდება, რომ დროთა განმავლობაში შეძლებს მესამე მხარის პროგრამული გადაწყვეტილებების გამოყენებას.

მიუხედავად იმისა, რომ GPT-4-ზე დაფუძნებული პერსონალური აპლიკაციების უმეტესობა გაწვრთნილი იყო გარკვეულწილად მოძველებულ მონაცემთა ნაკრებებზე, Security Copilot იძენს ახალ ინფორმაციას რეალურ დროში, ფაქტიურად ტრილიონობით საფრთხის სიგნალის შესწავლით. Microsoft ყოველდღიურად იღებს. ეს არის მოდელის უპირატესობა - უსაფრთხოების კოპილოტს შეუძლია ფარული სიგნალების ამოცნობა მანამდეც, სანამ თავდასხმის ფაქტი აშკარა გახდება. ამის წყალობით, ინსტრუმენტი შეიძლება გამოყენებულ იქნას საფრთხეების ამოცნობისა და დროულად აღმოსაფხვრელად.

ამავდროულად, საკმაოდ ცოტა ხნის წინ გაირკვა, რომ AI-ებს, როგორიცაა ChatGPT, Bing Chat ან Google Bard, შეიძლება ჰქონდეთ „ჰალუცინაციები“, რომლის დროსაც სრულიად არასანდო ფაქტები გამოიყენება „მსჯელობის“ საფუძვლად. უსაფრთხოების სფეროში ეს შეიძლება გახდეს ძალიან საშიში ფენომენი. IN Microsoft უკვე დაადასტურეს, რომ უსაფრთხოების კოპილოტი "ყოველთვის არ ახერხებს საქმეებს სწორად". საბედნიეროდ, პროდუქტის შემთხვევაში Microsoft მოწოდებულია მომხმარებელთა უკუკავშირის მექანიზმი, რათა უზრუნველყოს მზარდი შესაბამისი პასუხები.

ჯერ კიდევ Microsoft არ მოახსენა რა შეიძლება მოხდეს, როდესაც თავდაცვითი AI დაეჯახება მავნე AI-ს, როგორიცაა ის, რომელიც შექმნილია მომხმარებლებისა და ბიზნესების თავდასხმისთვის. ნებისმიერ შემთხვევაში, კომპანიამ განაცხადა, რომ საწარმოს მომხმარებლებს უკვე შეუძლიათ უსაფრთხოების კოპილოტის ტესტირება მათი მომხმარებლების მცირე სეგმენტზე. თუ ექსპერიმენტი წარმატებული იქნება, ის, ალბათ, მომავალში შეძლებს რიგითი მომხმარებლების დახმარებას.

ასევე საინტერესოა:

Share
Julia Alexandrova

ყავის კაცი. ფოტოგრაფი. ვწერ მეცნიერებასა და სივრცეზე. ვფიქრობ, ჩვენთვის ჯერ ადრეა უცხოპლანეტელებთან შეხვედრა. მე ვაკვირდები რობოტიკის განვითარებას, ყოველი შემთხვევისთვის...

დატოვე პასუხი

თქვენი ელფოსტის მისამართი გამოქვეყნებული არ იყო. აუცილებელი ველები მონიშნულია*