пятница, 1 октября 2021 г.

სტერეოტიპები და ცრურწმენები: რა ვასწავლეთ ხელოვნურ ინტელექტს


სტერეოტიპები და ცრურწმენები: რა ვასწავლეთ ხელოვნურ ინტელექტს

 https://womo.ua/stereotipyi-i-predrassudki-chemu-myi-nauchili-iskusstvennyiy-intellekt/


მანქანური სწავლების ალგორითმებმა მაღალი დონე აჩვენა

ახალი ტექნოლოგიების შემუშავებით ჩვენ ვქმნით ახალ სამყაროს. მაგრამ შეიძლება ის გახდეს უკეთესი, თუ მასში ჩავდებთ ძველ შეცდომებს? ხელოვნურ ინტელექტზე, თანამედროვე საზოგადოების ერთ-ერთ მთავარ მიღწევაზე, უკვე შეინიშნება მავნე გავლენა - მეცნიერებმა მიაქციეს ყურადღება გენდერული და რასობრივი მიკერძოების გამაოგნებელ რაოდენობას მის ალგორითმებში.

რატომ არის მანქანები მიკერძოებული

ბოლო რამდენიმე წლის განმავლობაში, ისეთი პროგრამების მიერ, როგორიცაა Google Translate, ენის გაგების უნარი, მკვეთრად გაიზარდა. ყოველივე ეს განპირობებულია სწავლების ახალი ტექნიკით და უზარმაზარი მოცულობის ტექსტური მონაცემების ხელმისაწვდომობით, რომლებზეც ავარჯიშებენ ალგორითმებს. მაგრამ, ვინაიდან მანქანები თანდათან იძენენ ადამიანის მსგავს ენობრივ უნარებს, ისინი ასევე შთანთქავენ ცრურწმენებს, რომლებიც ფესვგადგმულია ენის პატერნებში.

ჯოანა ბრისონმა, სპეციალისტმა  კომპიუტერული მეცნიერების სფეროში, აღნიშნა: „ბევრს მიაჩნია - ეს კი იმას ადასტურებს, რომ ხელოვნური ინტელექტი მიკერძოებულია. არა, ეს ადასტურებს, რომ ჩვენ ვართ მიკერძოებულები, ხელოვნური ინტელექტი კი მას ჩვენგან იღებს“. ბრისონმა გააფრთხილა, რომ ხელოვნურ ინტელექტს აქვს პოტენციალი გააძლიეროს არსებული ცრურწმენები, რადგან ადამიანებისგან განსხვავებით, ალგორითმებს არ შეუძლიათ შეგნებულად გაუძლონ ათვისებულ სტერეოტიპებს. „საფრთხე წარმოიქმნება მაშინ, როდესაც ხელოვნურ ინტელექტს აღარ ექნება გარეგანი ელემენტი, რომელიც კონტროლდება მორალური რწმენით“.


რას აჩვენებს „სიტყვების ვექტორული წარმოდგენა“?

ცოტა ხნის წინ ჟურნალ „Science“-ში გამოაქვეყნეს კვლევა, რომელიც მიეძღვნა მანქანური სწავლების ისეთ ინსტრუმენტს, როგორიცაა „სიტყვის ვექტორული წარმოდგენა“ («word embedding»). ეს მიდგომა, რომელიც უკვე გამოიყენება ქსელის ძიებასა და მანქანურ თარგმანში, აგებულია ენის მათემატიკურ წარმოდგენაზე, როდესაც სიტყვის მნიშვნელობა ნაწილდება  რიცხვების სერიაზე (ეწოდება სიტყვის ვექტორი) იმის გათვალისწინებით, თუ რომელი სიტყვები ყველაზე ხშირად გამოიყენება მასთან ერთად. შეიძლება გასაკვირი იყოს, მაგრამ ასეთ სტატისტიკურ მიდგომას შეუძლია აითვისოს სიტყვის მრავალფეროვანი კულტურული და სოციალური კონტექსტი, რომელიც არ არის ხელმისაწვდომი ლექსიკონში.

მაგალითად, მათემატიკურ ენაზე სიტყვები, რომლებიც უკავშირდება სიტყვას „ყვავილი“, უფრო ახლოსაა ცნებასთან „სასიამოვნო“, იმ დროს, როდესაც სიტყვა „მწერის“ კლასტერი უფრო ახლოს არის ველთან „უსიამოვნო“ - ეს ასახავს მწერების ზოგად აღქმას ყვავილებთან დაკავშირებით.

ბოლო კვლევებმა აჩვენა, რომ კიდევ უფრო საშიში მიკერძოება ადვილად აითვისება ალგორითმების მიერ. სიტყვები „მდედრობითი“ და „ქალი“ უფრო ხშირად ასოცირდება ხელოვნებასთან, ჰუმანიტარულ მეცნიერებებთან და სახლთან, ხოლო „მამრობითი“ და „მამაკაცი“ უფრო ახლოს მათემატიკასა და საინჟინრო პროფესიებთან.

მანქანური სწავლების ინსტრუმენტი, რომელზეც ატარებდნენ კვლევას, ნავარჯიშევი იყო ონლაინში გამოქვეყნებული ტექსტების კორპუსზე. მსგავსი შედეგი მოგვცა კვლევამ Google-ს ახალი ამბების მასალაზე.

ოქსფორდის უნივერსიტეტის საინფორმაციო ეთიკისა და ალგორითმების მკვლევარმა სანდრა უოჩტერმა ასეთი კომენტარი მისცა სიტუაციას: „სამყარო სავსეა ცრურწმენებით, ისტორიული მონაცემები სავსეა ცრურწმენებით, ასე რომ შედეგები არ არის გასაკვირი“.

მაგრამ ალგორითმები შეიძლება წარმოადგენდნენ არა მხოლოდ საფრთხეს, არამედ ახალ შესაძლებლობებს სტერეოტიპებთან დასაპირისპირებლად. „ალგორითმების შემთხვევაში, ჩვენ შეგვიძლია მინიმუმ ვიცოდეთ, რომ ისინი მიკერძოებულნია. ადამიანებს შეუძლიათ მოიტყუონ იმ მიზეზების შესახებ, რის გამოც ვიღაც არ აიყვანეს სამსახურში. ალგორითმებს ჯერ არ შეუძლიათ ამის გაკეთება“. 


Комментариев нет:

Отправить комментарий

Will be revised