понедельник, 24 августа 2020 г.

ბრუნო მარტინი ნეიროტექნოლოგია ნეირო უფლებები

          ბრუნო მარტინი ნეიროტექნოლოგია ნეირო უფლებები


 ბოლო ათწლეულების განმავლობაში ნეიროტექნოლოგია ტვინის ვიზუალიზაციის ძირითადი ტექნიკიდან რთულ დისციპლინამდე განვითარდა, რომელიც ფოკუსირებულია დაკვირვებასა და გონებით მანიპულირებაზე. კვლევის ეს სფერო შედის ახალ, უცნობ ფაზაში, სადაც აზრების კითხვა და ტელეპათია შესაძლოა რეალობად იქცეს. და ისევე, როგორც ციფრული გიგანტები, როგორიც ფეისბუკია, უერთდებიან ტვინი-მანქანა ინტერფეისების შექმნის მარათონს. ექსპერტები მოითხოვენ დებატებს ნეიროტექნოლოგიის მორალური დილემების საკითხებთან დაკავშირებით. ისინი აფრთხილებენ ფანატიკური ტექნოლოგიური ოპტიმიზმისგან. საქმე უკვე ის კი არ არის, რა შეგვიძლია გავაკეთოთ, არამედ, რა უნდა გავაკეთოთ.

           ამერიკულ კომპანია Neuralink-ს, რომელიც მილიონერმა ელონ მასკმა დაარსა და ნაწილობრივ Microsoft-ის მიერ არის დაფინანსებული, აქვს ადამიანის გონების ინტერნეტთან მიერთების ამბიციური გეგმა ტვინში ჩანერგილი თხელი მავთულების მეშვეობით. Neuralink–ის საწყისი მიზანია გაავრცელოს ეს ინტერფეისი ტვინი–მანქანა თერაპიული მიზნებისათვის, მაგალითად, ამპუტირებული კიდურების მქონე პაციენტებმა რომ შეძლონ ბიონიკური პროთეზის პროთეზირების კონტროლი, მაგრამ, მასკის თქმით, მათი გრძელვადიანი მიზანია ადამიანის შესაძლებლობების გაუმჯობესება „ხელოვნურ ინტელექტთან  სიმბიოზის მიღწევის გზით“.

            Neuralink–ის პირველი გამოკვლევები ადამიანზე დაგეგმილია 2020 წლის შუა რიცხვებისთვის, ხოლო ტრანსჰუმანიზმის პროექტს კიდევ ბევრი წელი დასჭირდება განვითარებისთვის, თუ საერთოდ განვითარდა. მაგრამ დროა დაფიქრება იმაზე, რომელი შესაძლო გვერდითი ეფექტები შეიძლება გამოვლინდეს კომპანიის მიერ მომხმარებელთა ტვინზე დაგეგმილი ჩარევის შედეგად: შესაძლებელი იქნება მათი დაცვა ჰაკერებისგან? თუ ინტიმური ნეირონული მონაცემების დარღვევას გამოიწვევს? რა ცვლილებებს მოხდება პიროვნებაში? ყოველივე ეს იწვევს რეალურ შეშფოთებას იმასთან დაკავშირებით, რასაც მარჩელო იენკა, ბიოეთიკოსი ციურიხის ფედერალური პოლიტექნიკური სკოლიდან (შვეიცარია) უწოდებს „ნეიროკაპიტალიზმის“ ფაზას.

           2017 წელს Facebook–მა აცნობა თავისი მიზნის - ტვინის ტალღების სენსორის შექმნაზე მუშაობის დაწყების შესახებ, რომელიც მომხმარებლებს მისცემს წუთში 100 სიტყვის აკრეფის შესაძლებლობას მხოლოდ საკუთარი აზრების გამოყენებით (როგორც წესი, უფრო ნელა, ვიდრე სენსორული აკრეფა მექანიკურ კლავიატურაზე, მაგრამ უფრო სწრაფად, ვიდრე სმარტფონზე). საბოლოო ჯამში, მარკ ცუკერბერგის კომპანიას სურს გაყიდოს არაინვაზიური ელექტროენცეფალოგრაფიული თავსახვევი, რომელიც შეიძლება გამოყენებულ იქნას მუსიკალური დანართების მართვისთვის ან ვირტუალური რეალობის სისტემებთან ურთიერთობისთვის.


                 ტვინის მანქანების მომავალი


           ზოგიერთი ანალიტიკოსის აზრით, ინვესტორებმა მოლოდინი არ გაამართლეს მომავალი ნეიროტექნოლოგიებთან დაკავშირებით, რადგან ჯერ კიდევ იგრძნობა ნეირობიოლოგიური ცოდნისა და არაინვაზიური ტექნოლოგიების ნაკლებობა, რაც საჭიროა შემოთავაზებული მოკლევადიანი მიზნების მისაღწევად. მაგრამ ეს მიზნები ასევე არ წარმოადგენს სამეცნიერო ფანტასტიკას: ბოლო წლების მიღწევები, მაგალითად, ნეირომარკეტინგის ან ნეიროგეიმინგის სფეროში, საოცარი სისწრაფის დამადასტურებელია, რომლითაც ვითარდება დარგი, და ეს სიჩქარე მხოლოდ გაიზრდება ამ კომპანიების უზარმაზარი ინვესტიციების ხარჯზე. 

        2019 წელს, ფეისბუქმა უკვე გამოაცხადა სან-ფრანცისკოს კალიფორნიის უნივერსიტეტთან ერთობლივი მუშაობის თავისი პირველი შედეგები: „ხმის დეკოდირების" შემუშავება, რომლებსაც შეუძლია მარტივი კომუნიკაციების გაშიფვრა, თავის ქალის ქვეშ არსებული ნეირონების გაანალიზება. მათმა კვლევამ მიიპყრო ეპილეფსიის მქონე პაციენტების ყურადღება, რომლებიც ემზადებოდნენ ინვაზიური ქირურგიისთვის - კვლევითმა ჯგუფმა აჩვენა, რომ იმპლანტის დახმარებით მათ შეუძლიათ წაიკითხონ პაციენტების აზრები და განასხვავონ კითხვაზე: „რომელი მუსიკალური ინსტრუმენტის მოსმენა გირჩევნიათ?“ (მაგალითად, „ვიოლინო „)  რამდენიმე შესაძლო პასუხი.

         შედეგები მრავლისმთქმელია მეცნიერული და ტექნოლოგიური თვალსაზრისით, მაგრამ შემაშფოთებელია სოციალური თვალსაზრისით. ამ კვლევის გამოქვეყნებამდე რამდენიმე კვირით ადრე, აშშ–ს სავაჭრო ფედერალურმა კომისიამ დაადანაშაულა Facebook-ი იმაში, რომ მან 5 მილიარდი აშშ დოლარი მოითხოვა, რათა საკონსულტაციო ფირმა Cambridge Analytica–ს მიეცეს უფლება შექმნას სოციალური ქსელის მომხმარებელთა პოლიტიკური პროფილები მათი თანხმობის გარეშე.

           კონფიდენციალურობის ან უსაფრთხოების რა გარანტიებია ხელმისაწვდომი მომხმარებლებისთვის, რომლებიც ამ კომპანიებს საშუალებას აძლევენ შეაღწიონ მათ ტვინში? ჯერჯერობით, ასეთი გარანტიები არ არსებობს - აფრთხილებენ ამის შესახებ ექსპერტები. ერთ-ერთი ასეთი ექსპერტია ნიტა ფარახანი, დიუკის უნივერსიტეტის ნეიროეთიკის პროფესორი. MIT Technology Review–სთვის მიცემულ ინტერვიუში, იგი ამბობს: „ჩემთვის ტვინი ერთადერთი უსაფრთხო ადგილია აზრების, ფანტაზიისა და განსხვავებული შეხედულებების თავისუფლებისთვის. ჩვენ ვუახლოვდებით კონფიდენციალურობის ბოლო ხაზის გადაკვეთას, დაცვის არარსებობის შემთხვევაში“. 


„ნეირომიზნების“ დეკლარაია


          აქტივისტები, როგორიცაა მარჩელო იენკა და რაფაელ იუსტე, ნეირობიოლოგი კოლუმბიის უნივერსიტეტიდან, თანხმდებიან: პოლიტიკური და ეთიკური დებატები ტექნოლოგიურ განვითარებას ჩამორჩება. ისინი მოუწოდებენ მეცნიერებს, ტექნოლოგებსა და პოლიტიკოსებს დაფიქრდნენ შესაძლო რისკებზე და შეიმუშაონ კონკრეტული საკანონმდებლო აქტები. მათი აზრით, რიგი ნეირორაიტები უნდა განმტკიცდეს კანონით, რათა დაიცვან მომხმარებლები და უხელმძღვანელონ ტვინის ტექნოლოგიების განვითარებას მომავალში, რომელიც ყველასთვის ხელსაყრელია.

          სტატიაში, რომელიც დაიბეჭდა აკადემიურ ჟურნალში Life Science, Society and Policy,  იენკამ და მისმა კოლეგამ რობერტო ანდორნომ შესთავაზეს ადამიანის ოთხი ახალი უფლება ნეიროტექნოლოგიების ახალი ეპოქისთვის. პირველ რიგში, შემეცნებითი თავისუფლების უფლება, რომელიც საშუალებას მისცემს ადამიანებს თავისუფლად გადაწყვიტონ, გამოიყენონ თუ არა ახალი ინტერფეისები ტვინი-მანქანა, მაგალითად, როდესაც დამსაქმებლები ან მთავრობა ითხოვენ ამას. მეორე, ფსიქიკური უფლებები, რომელიც საშუალებას მისცემს ადამიანებს თავისუფლად გადაწყვიტონ, გამოიყენონ თუ არა ახალი ინტერფეისები ტვინი-მანქანა, მაგალითად, როდესაც დამსაქმებლები ან მთავრობა ითხოვენ ამას. მესამე, ფსიქიკური კონფიდენციალურობის უფლება: აირჩიოს, როდის გაცვალონ ნეირონული მონაცემები და რა პირობით. Ienca-მ ივარაუდა აზრების მოსმენის,  არანებაყოფლობითი თვითბრალდების ან ნეირონული მონაცემების შეძენისა და გაყიდვის შესაძლებლობა, რაც განსაკუთრებით აქტუალურია Cambridge Analytica-ს სკანდალის შემდეგ.

        მეოთხეც, Ienca-მ და Andorno-მ შესთავაზეს ფსიქიკური ხელშეუხებლობის უფლება, რომელიც იცავს მომხმარებლებს ნეიროტექნოლოგიებით გამოწვეული ფიზიკური ან ფსიქოლოგიური ზიანისგან. დაბოლოს, ფსიქოლოგიური მემკვიდრეობითობის უფლება, რომელიც იძლევა პირადი იდენტურობის გარანტიას მსოფლიოში, სადაც მანქანებს შეუძლიათ შეცვალონ პიროვნება წინასწარი თანხმობის გარეშე. რაფაელ იუსტეს წინადადება, რომლებიც ასახა ჯგუფმა NeuroRights  Initiative-მ და რომელსაც იგი ხელმძღვანელობს კოლუმბიის უნივერსიტეტში, ძირითადად  იგივეა, რაც წინა, მაგრამ მათში შედის ორი დამატებითი უფლება: გონებრივი გაძლიერების თანაბარი დაშვების უფლება და ალგორითმული მიკერძოებულობიდან და დისკრიმინაციისაგან დაცვის უფლება. 

        გაზეთ El País-სთვის მიცემულ ინტერვიუში იუსტე აღნიშნავს, რომ მორალური პასუხისმგებლობა უპირველეს ყოვლისა იმ ტექნოლოგებსა და ნეირობიოლოგებს ეკისრებათ, რომლებიც იკვლევენ, თუ როგორ მუშაობს ტვინი და როგორ შეიძლება მისი მანიპულირება. იუსტეს აქვს რეალისტური შეხედულება იმის შესახებ, თუ რას შეიძლება მიაღწიონ ნეიროტექნოლოგიებმა უახლოეს წლებში, და შიშობს, რომ მომავალი მოულოდნელად დაგვადგება თავს. „ჩვენ უშუალოდ საზოგადოებას და პოლიტიკოსებს უნდა მივმართოთ, რომ თავიდან ავიცილოთ მისი ბოროტად გამოყენება“, - ამბობს ის. „ჩვენ ისტორიული პასუხისმგებლობა გვაკისრია. ჩვენ ვცხოვრობთ ისეთ დროში, როდესაც შეგვიძლია გადავწყვიტოთ, რაოგორი კაცობრიობა გვჭირდება“. 


ბრუნო მარტინი


Комментариев нет:

Отправить комментарий

Will be revised