понедельник, 24 августа 2020 г.

აშშ-ში აღმოაჩინეს რასობრივი მიკერძოება სახეების ამოცნობის ტექნოლოგიებში

 აშშ-ში აღმოაჩინეს რასობრივი მიკერძოება  სახეების ამოცნობის ტექნოლოგიებში 

ხუთშაბათს გამოქვეყნებული აშშ-ს მთავრობის მიერ ჩატარებული გამოკვლევის თანახმად, სახეების ამოცნობის მრავალი სისტემა განსაკუთრებით ხშირად შეცდომით ამოიცნობს ფერადკანიან ადამიანებს, ვიდრე თეთრი რასის წარმოამდგენლებს, რამაც შეიძლება გააძლიეროს სკეპტიციზმი იმ ტექნოლოგიების მიმართ, რომლებიც ფართოდ გამოიყენება სამართალდამცავი ორგანოების მიერ.

სტანდარტებისა და ტექნოლოგიების ეროვნული ინსტიტუტის (NIST) მიერ ჩატარებულმა კვლევამ აჩვენა, რომ გარკვეული ტიპის მონაცემთა ბაზაში ძიების ჩატარებისას, რომელიც ცნობილია, როგორც შედარება „ერთი ერთთან“, სახის ამოცნობის მრავალი ალგორითმი არასწორად ახდენს აფროამერიკელების და აზიელების იდენტიფიცირებას 10-100-ჯერ უფრო ხშირად, ვიდრე თეთრი რასის წარმომადგენელ პირებს.

კვლევამ აჩვენა, რომ რასობრივი უმცირესობები ბევრად უფრო ხშირად, ვიდრე თეთრკანიანები, შეიძლება არასწორად იყვნენ იდენტიფიცირებული, რაც იწვევს ახალ შეშფოთებას პროგრამული უზრუნველყოფის მიუკერძოებლობასთან დაკავშირებით, მიუხედავად იმისა, რომ სულ უფრო მეტი სამთავრობო დაწესებულებები მართვის ადგილობრივ და ფედერალურ დონეზე მოითხოვენ მის გამოყენებას.

კვლევამ ასევე აჩვენა, რომ აფროამერიკელი ქალები უფრო დიდი ალბათობით შეიძლება არასწორად იყოს იდენტიფიცირებული შედარებისას „ერთი ბევრის მიმართ“, რამაც შეიძლება გამოიწვიოს არაკორექტული შედეგები იმ პირთა იდენტიფიკაციის დროს, რომლებიც წარმოადგენენ ინტერესს სისხლისსამართლის საქმეების გამოძიებაში.

იმ დროს, როდესაც ზოგიერთი კომპანია მალავდა ადრე მიღებულ მონაცემებს ტექნოლოგიაში მიკერძოებულობის შესახებ, რომელსაც შეუძლია გამოიცნოს ადამიანის სქესი და რომელიც ცნობილია როგორც „სახის ანალიზი“, NIST-ის კვლევა წარმოადგინა იმის მტკიცებულება, რომ შედარება იწვებს დემოგრაფიულ პრობლემებს.

მიღებულმა შედეგებმა გააძლიერეს მღელვარება პოლიტიკოსებს, პირადი ცხოვრების დაცვის ჯგუფებს და სისხლის სამართლის მართლმსაჯულების აქტივისტებს შორის იმ ტექნოლოგიის გამო, რომელიც ფართოდ ვრცელდება აეროპორტებში, პოლიციის დეპარტამენტებსა და საზღვარზე.

ალგორითმული მართლმსაჯულების ლიგის დამფუძნებელმა ჯოი ბუოლამვინიმ მოხსენებას „ყოვლისმომცველი უარყოფა“ უწოდა მათთვის, ვინც ამტკიცებს, რომ ხელოვნური ინტელექტის არაობიექტურობა არ წარმოადგენს პრობლემას. გამოკვლევა ტარდება შეერთებულ შტატებში ტექნოლოგიების მიმართ მზარდი უკმაყოფილების დროს, ამ ტექნოლოგიის მოწინააღმდეგეები აფრთხილებენ, რომ მისმა გამოყენებამ შეიძლება გამოიწვიოს უსამართლო შევიწროება ან დაპატიმრება.

NIST–ის კვლევამ მოიცვა დაახლოებით 100 მიმწოდებელი, მათ შორის Intel, Microsoft, და Toshiba, ასევე ცნობილი ჩინური კომპანიები, როგორიცაა Tencent და DiDi Chuxing. Amazon.com Inc–მა, რომელიც კომპანიებს აწვდის სახის გამოცნობის ტექნოლოგიებს, შემოწმების მიზნით არცერთი ნიმუში არ წარმოადგინა.

ჩინურ SenseTime–ში, AI–ს სტარტაპში, რომელიც შეფასებულია 7,5 მილიარდ აშშ დოლარად, ერთ-ერთ ტესტში NIST–მა აღმოაჩინა „ცრუ დამთხვევის მაღალი მაჩვენებლები ყველა სახის შედარებისთვის“.

SenseTime-ს ალგორითმი იწვევდა ცრუ ამოქმედებას შემთხვევათა 10%-ში სომალელი მამაკაცების ფოტოების შემოწმებისას, რაც აეროპორტში ამ სისტემების განთავსების შემთხვევაში იმას მანიშნებელი იქნებოდა, რომ სომალელ მამაკაცს შეეძლო საბაჟოზე გავლა ათიდან ერთ შემთხვევაში, მაშინაც კი, თუ ის სხვა სომელელი მამაკაცების პასპორტებს გამოიყენებდა.

SenseTime-ს პასუხი არ გაუცია  როიტერსის კომენტარზე.

Yitu, კიდევ ერთი AI– ს სტარტაპი ჩინეთიდან, უფრო ზუსტი იყო.

Microsoft Corp–ს ჰქონდა თითქმის 10–ჯერ მეტი ცრუ ამოქმედება ფერადკანიან ქალებზე, ვიდრე ფერადკანიან მამაკაცებზე, ზოგიერთ შემთხვევაში  ტესტის დროს „ერთი ბევრის მიმართ“. მისმა ალგორითმმა აჩვენა მცირე შეუსაბამობა ტესტში „ერთი ბევრის მიმართ“ მხოლოდ შავ- და თეთრკანიანი მამაკაცების ფოტოების შემოწმებისას.

Microsoft-მა განაცხადა, რომ იგი განიხილავს ანგარიშს, მაგრამ ამ თემაზე კომენტარს არ აკეთებს.

კონგრესმენმა ბენი ტომპსონმა, აშშ-ს ეროვნული უსაფრთხოების კომიტეტის თავმჯდომარემ,  განაცხადა, რომ არაობიექტურობის შედეგები უფრო უარესი აღმოჩნდა, ვიდრე მოსალოდნელი იყო, ეს იმ დროს, როდესაც საბაჟო მოხელეები ამტკიცებდნენ სახის გამოცნობის სისტემების დანერგვას საკონტროლო-გამშვებ პუნქტებზე.

„ადმინისტრაციამ უნდა გადახედოს თავის გეგმებს სახის გამოცნობის ტექნოლოგიასთან დაკავშირებით ამ შოკისმომგვრელი შედეგების გათვალისწინებით“, - თქვა მან.

„ამჟამად მთავრობის მეცნიერებიც კი ადასტურებენ, რომ მეთვალყურეობის ეს ტექნოლოგია არასრულყოფილი და არაობიექტურია, - თქვა ამერიკის სამოქალაქო თავისუფლებების კავშირის უფროსმა პოლიტიკურმა ანალიტიკოსმა ჯეი სტენლიმ. - ერთმა არასწორმა დამთხვევამ შეიძლება გამოიწვიოს ფრენის გამოტოვება, ხანგრძლივი დაკითხვების ჩატარება, სამეთვალყურეო სიებში მოხვედრა, პოლიციასთან დაძაბული შეხვედრები, ყალბი დაპატიმრებები ან სხვა რამ უარესი“.

დემოკრატთა საპრეზიდენტო კამპანიის დროს სენატორმა ბერნი სანდერსმა პირობა დადო, რომ აკრძალავდა სახის გამოცნობის პროგრამული უზრუნველყოფის გამოყენებას პოლიციის საქმიანობაში მისი პლატფორმის ფარგლებში, რომელიც დაკავშირებულია სისხლის სამართლის რეფორმასთან. ამავე დროს სენატორმა ელიზაბეტ უორენმა შემოგვთავაზა ტექნოლოგიის რეგულირება.

მთავრობის ჩინოვნიკების მეორე ნაწილი დაჟინებით მოითხოვს სახის გამოცნობის ტექნოლოგიის გამოყენების გაფართოებას. მთელს ქვეყანაში პოლიციის ბევრმა სამმართველომ ხელი მოაწერა Amazon-ის სახის გამოცნობის სერვისზე სახელწოდებით Rekognition იმ მოქალაქეთა გამოსავლენად, რომლებიც ეჭვმიტანილი არიან დანაშაულის ჩადენაში. ადრე ამ თვეში აშშ-ს საშინაო უსაფრთხოების დეპარტამენტმა შესთავაზა მოეთხოვათ აშშ-ს მოქალაქეების და იმ პირთათვის, ვისაც მწვანე ბარათის მისაღების უფლება აქვთ, გაიარონ სახის ამოცნობის შემოწმება ქვეყნიდან გასვლის და ქვეყანაში შემოსვლისას. ჩინოვნიკებმა უარი თქვეს თავის გეგმაზე მედიაში გამოქვეყნებული უამრავი შეტყობინებების და ინტენსიური საზოგადოებრივი რეაგირების შემდეგ.

=============
ხელოვნური ინტელექტი
ალგორითმებმა ისწავლეს გადაღება 

სანამ მომხრეები ხელოვნური ინტელექტის გავრცელებას უფრო აწონილ-დაწონილი გადაწყვეტილების მიღების შესაძლებლობას უკავშირებენ, სკეპტიკოსებმა გადაწყვიტეს შეემოწმობინათ, შესაძლებელია თუ არა ნეირონულმა ქსელებმა rom ისწავლონ მიკერძოება, ისიც მომზადებისთვის დამახინჯებულ მონაცემთა გამოყენების გარეშე. გამოცდილებამ აჩვენა, რომ ეს შესაძლებელია, მაგრამ ასევე გამოავლინა „ანტიდოტი“.
ჩვეულებრივ, ალგორითმების მიკერძოებულობის გავრცელების საშიშროება უკავშირდება დამახინჯებული მონაცემთა ნაკრების გამოყენებას. მაგრამ კარდიფის უნივერსიტეტისა და MIT-ის მკვლევარებმა შექმნეს მასშტაბური სათამაშო სიმულაცია, რათა ეჩვენებინათ ცრურწმენებისა და სტერეოტიპების გავრცელების სხვა გზა - ადამიანების ჩარევისა და მონაწილეობის გარეშე. მათი მუშაობის შესახებ ScienceDaily მოგვითხრობს.
ჩინელმა ექიმებმა აღმოაჩინეს პრეპარატი, რომელიც ანადგურებს კოროვირუსს ოთხი დღის განმავლობაში.
 „თამაშის სამყაროს“ შექმნაში პროგრამისტებს ფსიქოლოგები ეხმარებოდნენ. მათ საფუძვლად დაუდეს სტრატეგიების დამუშავებისთვის ფასეულობების გაცვლის ტიპური თამაში: თითოეული ხელოვნური ინტელექტი-მონაწილე ირჩევდა სხვა ალგორითმს იმისთვის, რომ მისთვის ქულები შეეწირა. ამასთან ერთად, ხელოვნური ინტელექტისგან შეიქმნა რამდენიმე ჯგუფი, და რიგ ალგორითმებს მიანიჭეს უნდობლობა სხვა ლიგების წევრების მიმართ. ყველა პროგრამა ცდილობდა გადაეღო მომგებიანი ინდივიდუალური სტრატეგიები, მაგრამ გაირკვა, რომ ზოგადად „სოციუმისთვის“ ეს საზიანო იყო.
კვლევის თანაავტორი როჯერ უიტაკერი ამბობს, რომ სუპერკომპიუტერმა შესაძლებელი გახადა „ათასობით და ათასობით“ სიმულაციების ჩატარება სხვადასხვა საწყისი პირობით: „ცრურწმენა ბუნებისა და ევოლუციის სერიოზული ძალაა, და ის შეიძლება გავრცელდეს ვირტუალურ აგენტებშიც, ზიანი მიაყენოს ფართო კომუნიკაციას“.
იგი ხაზს უსვამს იმას, რომ გარკვეული მომენტიდან სტერეოტიპები ვრცელდება თოვლის გუნდებივით, და პროცესის შეჩერება ძალიან რთულია. რეალურ სამყაროში ხელოვნური ინტელექტის სისტემების გავრცელებასთან ერთად, რომლებიც „ვარაუდობენ ავტონომიასა და დამოუკიდებელ კონტროლს“, ეს საფრთხე იზრდება.
უიტაკერი აღნიშნავს, რომ რიგ სიმულაციებში შესაძლებელი გახდა ცრურწმენების გავრცელების შეზღუდვა. ამისათვის საჭირო იყო საზოგადოების დაპროგრამება, რომელიც დაიყო მცირე ჯგუფებად. ამ პირობებში გამარჯვებულები აღმოჩნდნენ „ობიექტური“ ალგორითმები, რომლებიც უფრო ხშირად ურთიერთქმედებდნენ სხვა ჯგუფების წევრებთან. და ყველაზე ეფექტური სტრატეგია აღმოჩნდა მიუკერძოებელთა ალიანსის შექმნა, ხოლო სტერეოტიპების მატარებლები იზოლირებული იყვნენ.
ზოგი ექსპერტი მიიჩნევს, რომ ადამიანის აზროვნებისთვის დამახასიათებელი ხარვეზები კი არ უნდა აღმოიფხვრას, არამედ გამოყენებული უნდა იყოს უფრო „ადამიანური“ ხელოვნური ინტელექტის შესაქმნელად. ერთ დღეს ასეთმა შეზღუდვებმა შეიძლება გადაარჩინონ კაცობრიობა, ხელი შეუშალონ კომპიუტერის ზეგონებას გადაარჩინოს პლანეტა მისი მოსახლეობის განადგურების გზით.



Комментариев нет:

Отправить комментарий

Will be revised