понедельник, 24 августа 2020 г.

აშშ-ს პოლიცია ასწავლის პროგნოზირების ალგორითმებს ფალსიფიცირებულ მონაცემებზე დაყრდნობით

 აშშ-ს  პოლიცია ასწავლის  პროგნოზირების ალგორითმებს ფალსიფიცირებულ მონაცემებზე დაყრდნობით

აშშ-ში ასწავლიან დანაშაულის პროგნოზირების ალგორითმებს მიკერძოებულ და ფალსიფიცირებულ მონაცემებზე დაყრდნობით. ამის შესახებ ნათქვამია ცოტა ხნის წინ AI Now Institute-ს და ნიუ-იორკის იურიდიული სკოლის მკვლევართა მიერ გამოქვეყნებულ ანგარიშში.

დანაშაულის პროგნოზირების ალგორითმები ყოველდღიურ პრაქტიკად იქცევა აშშ-ს ქალაქებში. პროგრამული უზრუნველყოფა უნდა დაეხმაროს პოლიციის დეპარტამენტებს მიიღონ მონაცემებზე ორიენტირებული ეფექტური გადაწყვეტილებები. მაგრამ მეცნიერები მივიდნენ დასკვნამდე, რომ ასეთი ალგორითმების სწავლება ხშირად მიმდინარეობს იმ მონაცემებზე დაყრდნობით, რომლებიც არ ასახავს რეალობას.

პოლიციის მიკერძოებულობა და მონაცემთა ფალსიფიკაია

2010 წელს ჩატარებულმა გამოძიებამ დაადგინა, რომ ახალ ორლეანში პოლიცია ხშირად აჭარბებდა თავის უფლებამოსილებას, განსაკუთრებით შავკანიანთა მიმართ. რასობრივი უმცირესობები, არა ინგლისურენოვანნი და ლგბტ-ს წარმომადგენლები ყველაზე მეტად განიცდიან პოლიციელთა თვითნებობას. გენერალური პროკურორის თანაშემწის თომას პერესის თქმით, პრობლემები იყო „სერიოზული, მასშტაბური, სისტემური და ღრმად ფესვგადგმული ადგილობრივი პოლიციის დეპარტამენტის კულტურაში“. პოლიციის ეს მიკერძოებული დამოკიდებულება საფუძვლად უდევს ალგორითმების სწავლებას.

მკვლევარებმა შეერთებულ შტატებში შეისწავლეს 13 იურისდიქციის მონაცემები, ყურადღება გაამახვილეს მათ მიმართ, ვინც იყენებდა მთავრობის მიერ მოწონებულ პროგნოზირების სისტემებს. უკანასკნელი მოთხოვნა იძლეოდა იმის გარანტიას, რომ პოლიციას ჰქონოდა დამადასტურებელი დოკუმენტები. 9 იურისდიქციაში მეცნიერებმა დაადგინეს, რომ ალგორითმები შესწავლილი იყო არაობიექტურ და ფალსიფიცირებულ მონაცემებზე დაყრდნობით.

ზოგიერთ შემთხვევაში, პოლიციის დეპარტამენტებში მიზანმიმართულად მიმდინარეობდა მონაცემების ფალსიფიცირება ძლიერი პოლიტიკური ზეწოლის ქვეშ, დანაშაულის ოფიციალური სტატისტიკის შემცირების მიზნით. ნიუ–იორკში დანაშაულის სტატისტიკის ხელოვნურად შემცირების მიზნით, უბნის მეთაურები რეგულარულად სთხოვდნენ მსხვერპლს დანაშაულის ადგილზე არ დაეწერათ განცხადებები. ზოგიერთი პოლიციელი ნარკოტიკებს უგდებდა უდანაშაულო ადამიანებს, რათა დაეხურათ დაკავების კვოტები. პოლიციელთა მოქმედებები დოკუმენტაციაში არანაირად არ არის ასახული, მაგრამ შედეგად ამგვარი დანაშაულების მონაცემებზე ასწავლიან პროგნოზირების ალგორითმებს.

პროგნოზირების ალგორითმები არაობიექტურია

სამართალდამცავი ორგანოები მიკერძოებას იჩენენ გარკვეული კატეგორიის ადამიანთა მიმართ - პოლიციის მიერ შემოწმება ხშირად ტარდება რასობრივი ნიშნით. „პოლიცია თვლის, რომ იყენებს ნეიტრალურ ან ობიექტურ ალგორითმებს, მაგრამ სინამდვილეში ისინი არაკონსტიტუციური და უკანონოა“, - აღნიშნავენ მეცნიერები.

კვლევის შედეგები ეჭვქვეშ აყენებს პროგნოზირების ალგორითმების შედეგების სისწორეს. პროგრამული უზრუნველყოფის მომწოდებლები ხშირად ამტკიცებენ, რომ ინსტრუმენტების მიკერძოებული შედეგი ადვილად გამოსწორებადია, მაგრამ AI Now-ს მეცნიერები ამბობენ, რომ პრობლემა სოციალურ და პოლიტიკურ სისტემაშია.

მკვლევარებმა განაცხადეს, რომ თუ სოციალური და პოლიტიკური მექანიზმები არ შეწყვეტენ მიკერძოებული ფალსიფიცირებული მონაცემების გენერირებას, ამ შემთხვევაში პროგნოზირების ინსტრუმენტები უფრო მეტ ზიანს მოიტანენ, ვიდრე სარგებელს. პოლიციის მუშაკებმა სამართლიანი ინფორმაცია უნდა მიაწოდონ. მხოლოდ ამ შემთხვევაში შესაძლებელი იქნება მანქანური სწავლების კორექტულად გამოყენება სამართალდამცავი ორგანოების დასახმარებლად და დანაშაულის რეალური მიზეზების დასადგენად.


Комментариев нет:

Отправить комментарий

Will be revised