ხელოვნური ინტელექტი: როგორ შეუძლიათ უსულო აპარატებს ადამიანისთვის სულის წართმევა?
რობოტების აჯანყება ჰოლივუდში შექმნილი ზღაპარია, რომელიც შეიძლება რეალობად იქცეს.
ბოლო წლების განმავლობაში მსოფლიო სამეცნიერო საზოგადოება სულ უფრო ხშირად ლაპარაკობს ხელოვნური ინტელექტის ტექნოლოგიების განვითარებასთან დაკავშირებულ რისკებზე. თავად თემა ადამიანებისთვის დიდი ხანია ახალი არ არის - მანქანების აჯანყების ან რობოტების ომის იდეები კაცობრიობის წინააღმდეგ არაერთხელ წამოჭრილა ფანტასტიკურ ნაწარმოებებსა თუ ფილმებში. მაგრამ ახლა მას სერიოზულად განიხილავენ გამოჩენილი მეცნიერები, სერიოზული კორპორაციების წარმომადგენლები, რომლებიც მონაწილეობდნენ ხელოვნური ინტელექტის შექმნაში, და მსოფლიო დერჟავების მეთაურებიც კი. დღეს ჩვენ შევეცდებით გავერკვეთ, თუ რა იმალება ადამიანების შიშს უკან საკუთარი ტექნოლოგიების წინაშე და რა საფრთხეების წინაშე შეიძლება აღმოჩნდეს ჩვენს ცხოვრებაში ხელოვნური ინტელექტის დანერგვა.
სექტემბერში, რუსეთის პრეზიდენტმა ვლადიმერ პუტინმა, იაროსლავის ფორუმის „პროექტორიის“ ფარგლებში გამოსვლისას, ცალსახად განაცხადა, რომ ნებისმიერი ქვეყანა, რომელმაც მიაღწია ლიდერობას ხელოვნური ინტელექტის შექმნის სფეროში (შემდგომ, ტექსტის მიხედვით - ხელოვნური ინტელექტი, - შენიშვნა „კრ“), პირდაპირი მნიშვნელობით გახდება „მსოფლიოს მბრძანებელი“, ხოლო თავად ტექნოლოგია მთელი კაცობრიობის მომავლის საფუძველია. ამავე დროს, პრეზიდენტმა ხაზი გაუსვა იმ საფრთხეს, რომელიც ელოდება ამ გზაზე კაცობრიობას. მან იგი დაახასიათა, როგორც „დღეს რთულად პროგნოზირებადი საფრთხეები“.
უნდა ითქვას, რომ ეროვნული ლიდერის მიერ გაჟღერებული ეს ფრაზა, იდეალურად გადმოსცემს პრობლემის ბუნებას. მართლაც, სამეცნიერო-ტექნიკური პროგრესის თანამედროვე ტემპების გათვალისწინებით, დღეს ტექნოლოგიის სფეროში მომავლის პროგნოზირება ძალიან რთულია, ხოლო იმ ნაწილში, რომელიც დაკავშირებულია ხელოვნური ინტელექტის შემუშავებასა და გამოყენებასთან, - ორმაგად. ეს არის ყველაზე ტევადი და რთულად გასაგები სფერო, რომელიც მთლიანად IT-ს, ავტომატიზაციისა და პროგრამირების სფეროში ყველაზე მოწინავე მოვლენებზეა დაფუძნებული. ხელოვნური ინტელექტისთვის დამახასიათებელი უმარტივესი სისტემის მუშაობის ალგორითმების გასაგებად, საჭიროა იმ საგნების ცოდნა, რომლის მიღებაც თანამედროვე სამყაროში პრაქტიკული გამოცდილების გარეშე შეუძლებელია. მიუხედავად ამისა, ტექნოლოგიის ზოგადი სპეციფიკისა და მიზნების გათვალისწინებით, შეიძლება ვივარაუდოთ, თუ როგორ გავლენას მოახდენს ჩვენს ცივილიზაციაზე და რა პრობლემებს გამოიწვევს.
გასული სამი წლის განმავლობაში ხელოვნური ინტელექტის სწრაფი განვითარების შესახებ შეშფოთება გამოთქვა ყველა გამოჩენილმა მოღვაწემ, რომლებიც იდგნენ ტექნოლოგიის სათავეებში. ილონ მასკი, პირველი კერძო კოსმოსური კომპანიის SpaceX-ის დამფუძნებელი, რომელიც თავის პროექტებში იყენებს ხელოვნურ ინტელექტს, მიიჩნევს, რომ საფრთხე აქტუალური გახდება უახლოეს წლებში.
„სერიოზული ინციდენტების რისკი, რომელიც მოხდება ხელოვნური ინტელექტის გამო, ძალიან დიდია. ეს მოხდება ხუთი, მაქსიმუმ ათი წლის განმავლობაში. მიაქციეთ ყურადღება იმას, რომ მე ვარ სპეციალისტი ტექნოლოგიების დარგში. ამ პრობლემის შესახებ ბოლო თვეების განმავლობაში არ მისაუბრია. ასე რომ, ეს არ არის ის შემთხვევა, როდესაც ვიღაც ყვირის მგელის შესახებ, ან ლაპარაკობს იმაზე, რაშიც საერთოდ არ ერკვევა“, - აფრთხილებდა SpaceX–ის ხელმძღვანელი ჯერ კიდევ 2014 წელს.
ილონ მასკმა ხაზგასმით აღნიშნა, რომ ხელოვნური ინტელექტი დღეს ძალიან სწრაფი ტემპებით ვითარდება, რის შესახებ ადამიანების უმეტესობამ არც კი იცის. ამგვარი მკვეთრი ტექნოლოგიური ნახტომის შესაძლო შედეგების გათვალისწინებით, ხელოვნური ინტელექტის შემუშავებით დაკავებული კორპორაციები უზარმაზარ სახსრებს და ძალისხმევას ინვესტირებენ სათანადო კონტროლისა და უსაფრთხოების უზრუნველსაყოფად. ამასთან, ფაქტი არ არის, რომ ეს საკმარისი იქნება, თუ გავითვალისწინებთ ტექნოლოგიური შედეგების არაპროგნოზირებადობას და საკმაოდ რთულ პროგნოზირებადობას - სამეცნიეროს, ეკონომიკურს და პოლიტიკურს.
აქ უნდა გავიხსენოთ, რომ ხელოვნურ ინტელექტს კონკრეტული მისია აქვს, რისთვისაც იგი არის შემუშავებული და გაუმჯობესებული. ეს მისია მდგომარეობს კომპიუტერისა და ადამიანის საქმიანობის მაქსიმალურ ავტომატიზაციაში. ანუ, ხელოვნურ ინტელექტს საბოლოოდ დაეკისრება ყველა ის ფუნქცია, რომელზეც დღეს პასუხს აგებენ ცოცხალი და სავსებით რეალური ადამიანები - ქუჩის დალაგებით დაწყებული პროგრამული კოდის შექმნით დამთავრებული. ეს კი ნიშნავს, რომ ის პრობლემები, რომლებსაც გადაეყრება კაცობრიობა ხელოვნური ინტელექტის გამოყენების დროს, აბსოლუტურად ანალოგიური იქნება იმ პრობლემებისა, რომლებიც მათ მთელი ისტორიის განმავლობაში შეექმნათ. ეს არის მორალურ-ეთიკური არჩევანის საკითხი, დანაშაული, სოციალურ-ეკონომიკური ფაქტორები, კანონმდებლობის თავისებურებები. ანალოგიური და ამდენადვე უსაზღვრო.
სხვა სიტყვებით რომ ვთქვათ, ხელოვნური ინტელექტის მთავარი საშიშროება, რომლის წინაშეც დღეს ან ხვალ აღმოვჩნდებით, მდგომარეობს არა თავად ტექნოლოგიაში, არამედ მისი გამოყენების მეთოდებში. ნებისმიერი ადამიანის ჩვეული საქმიანობის სფერო, მაგალითად, ქუჩის დასუფთავების ავტომატიზაცია, - აუცილებლად გამოიწვევს უმუშევრობის მკვეთრ ზრდას, რაც, თავის მხრივ, უარყოფითად იმოქმედებს ადამიანების სოციალურ-ეკონომიკურ კეთილდღეობაზე და მიგვიყვანს დანაშაულის ზრდასთან. აქვე წამოიჭრება ძალიან მწვავე ზნეობრივი საკითხები. რა არის უკეთესი - საბრალო მეეზოვეების განთავისუფლება, მათი საარსებო წყაროს გარეშე დატოვება, თუ მანქანების მომსახურებაზე უარის თქმა, დანაკარგი ეფექტურობასა და ეკონომიკაში? მეორეს მხრივ, რამდენად ჰუმანურია ადამიანის იძულება, თუნდაც ფულის გამო, ხელით ქუჩის დასუფთავება, როდესაც ეს შეიძლება მიენდოს ავტომატიზებულ სისტემას?
ინგლისში სამრეწველო რევოლუციის დროს, ათასობით სამსახურიდან განთავისუფლებული მუშა ქუჩაში გავიდა ეკონომიკაში ფაბრიკის დაზგების დანერგვის გაპროტესტების მიზნით, რომელთა წყალობით შრომითი პროდუქტიულობამ ახალ დონეს მიაღწია. მაღალ პროდუქტიულობასთან ერთად, მნიშვნელოვნად შემცირდა ადგილობრივი მანუფაქტურების და ფაბრიკების პერსონალი, რამაც გამოიწვია ისტორიაში პირველი „მანქანათა აჯანყება“ ან „აჯანყება მანქანების წინააღმდეგ“. ჩვენს ცხოვრებაში ხელოვნური ინტელექტის დანერგვას მეცნიერები განიხილავენ, როგორც შემდეგ ტექნოლოგიურ რევოლუციას, მაგრამ მისი შედეგები ბევრად უფრო გლობალური იქნება, ვიდრე ქარხნისთვის დაზგების გამოგონება.
ახალი ტექნოლოგია იძლევა არა მხოლოდ წარმოების პროცესის, არამედ საკვანძო გადაწყვეტილებების მიღების პროცესის ავტომატიზირების შესაძლებლობას, მათ შორის მმართველობითის. ჩვენი ცივილიზაციის არსებობის მთელი დროის განმავლობაში, ეს სამუშაო ეკისრებოდა მხოლოდ იმ ადამიანებს, რომლებსაც ბუნების ან ღმერთის სურვილით აქვთ გონება და საკუთარი ნება. ზოგადად, ის გადაწყვეტილებები, რომლებსაც ხელოვნური ინტელექტი მიიღებს, ასევე იქნება ადამიანის მიერ მიღებული. ისინი ეფუძნება ალგორითმსა და პრიორიტეტებს, რომლებიც მასში შემქმნელთა მიერ არის ჩადებული. აქ კი ხელოვნური ინტელექტის ტექნოლოგია კვლავ იგივე პრობლემების წინაშე დადგება, რომელსაც ცხოვრებაში ხშირად ვხვდებით. თანაც, უკვე უახლოეს მომავალში.
მაგალითად, დღეს ეს ეხება Google კომპანიის ინჟინრებს, რომლებმაც შეიმუშავეს უპილოტო ავტომობილები. დავუშვათ, რომ მათ დახვეწეს ხელოვნური ინტელექტის ტექნოლოგია, რომელიც მართავს მანქანას მძღოლის გარეშე, და ასეთი ავტომობილები გაუშვეს მასობრივ წარმოებაში. როგორ მოიქცევა ხელოვნური ინტელექტი, თუ წესების დარღვევის გარეშე ავტომაგისტრალზე მოძრაობისას მას მანქანის ქვეშ ჩაუვარდება ქალი ბავშვით, რომელმაც უყურადღებობის გამო ვერ შეამჩნია მოახლოვებული სატრანსპორტო საშუალება? ხელოვნურ ინტელექტს არ შეუძლია, ისევე როგორც ცოცხალ მძღოლს, პროგნოზირება გაუწიოს ქალის ქცევას, რომელიც ბოლო მომენტამდე მიდიოდა გზის პირას, შემდეგ კი მოულოდნელად გადაწყვიტა გზის არასათანადო ადგილზე გადაკვეთა. სწრაფი დამუხრუჭება გამოიწვევს საგზაო-სატრანსპორტო შემთხვევას, რომლის დროსაც ქალი და ბავშვი აუცილებლად დაიღუპეიან. და თუ ხელოვნური ინტელექტი, მისი შემქმნელების მიერ მასში ჩადებული მორალის შესაბამისად იხელმძღვანელებს, მკვეთრად მოუხვევს და ავტომობილი გადავარდება თხრილში ან შემხვედრ ზოლზე აღმოჩნდება, ალბათ დაიღუპებიან მანქანის მფლობელი და მისი მგზავრები. ორივე შემთხვევაში ხელოვნური ინტელექტი გახდება მკვლელი, თუნდაც უნებლიე. მაგრამ მეორე ვარიანტის შემთხვევაში, იგი ფაქტობრივად, მიზანმიმართულად მოკლავს თავის პატრონს, რომელიც მის ადგილზე, ალბათ, თავს არ გაწირავდა. ანუ, მეორე შემთხვევაში, მოხდება მანქანების კლასიკური აჯანყება ფანტასტების და ჰოლივუდის სცენარისტების საყვარელი თემატიკის შესაბამისად. მაგრამ ეს ყველაფერი შეიძლება მოხდეს რეალობაში და თანაც უახლოეს თვალმისაწვდომ მომავალში.
ხელოვნური ინტელექტის მხრიდან კაცობრიობისათვის შესაძლო საფრთხის შესახებ აფრთხილებს ინფორმაციული სისტემების ცნობილი ავტორი და Microsoft-ის კომპანიის დამფუძნებელი ბილ გეიტსი. ამერიკელი მილიარდერი თვლის, რომ ყველაზე სერიოზული საფრთხის წინაშე ადამიანები მაშინ აღმოჩნდებიან, როდესაც ხელოვნური ინტელექტის ტექნოლოგია გახდება იმდენად მრავალდონიანი და რთული, რომ თავად მისი შემქმნელები ვერ შეძლებენ სისტემაში არსებული პროცესების კონტროლს. ბილ გეიტსის აზრით, ეს იქნება „ხელოვნური სუპერინტელექტი“.
უნდა ითქვას, რომ ეს ეხება ხელოვნური ინტელექტის მიერ რთული გადაწყვეტილებების მიღებას. მრავალჯერადი ალგორითმები, რომლებიც გამოხატავენ ერთდროულად პრაგმატულ ანგარიშსწორებას, მორალურ-ზნეობრივ მოსაზრებებს და კანონმდებლობის თავისებურებებს, რომლებიც თავდაპირველად ჩადებული ექნებათ შემქმნელებს, წინააღმდგებობაში შევლენ ერთმანეთთან, როგორც ეს მუდმივად ხდება ადამიანებში. თუ პრიორიტეტები არასწორად იქნება განაწილებული ან ერთმანეთში აირევა მრავალი წინააღმდეგობის შედეგად, მაშინ ხელოვნური ინტელექტის ქცევა გახდება არაპროგნოზირებადი და შეიძლება ნებისმიერი შედეგი გამოიწვიოს - სისტემის შრომისუნარიანობის შემცირებიდან ადამიანების ღია და მიზანმიმართულ მკვლელობამდე.
ამ შემთხვევაში ყველაზე დიდ საფრთხეს წარმოადგენენ ხელოვნური ინტელექტის ტექნოლოგიები, რომლებიც გამოიყენება თავდაცვის ინდუსტრიაში. გეოპოლიტიკით განპირობებული გამალებული შეიარაღება აუცილებლად მიგვიყვანს იქამდე, რომ მომავალში ხელოვნური ინტელექტის მიერ მართულ საბრძოლო ერთეულებს - ტანკებიდან დაწყებული საბრძოლო რობოტებით დამთავრებული - მიეცემა შესაძლებლობა მიიღოს დამოუკიდებელი გადაწყვეტილებები სამხედრო ოპერაციების დროს - ბრძოლის ველზე ან შეიარაღებული კონფლიქტების დროს. აქ შეგიძლიათ მოძებნოთ სავარაუდო საფრთხეების მთელი სპექტრი - სისტემიდან გადაცდენით დაწყებული და ბოროტმოქმედი ჰაკერების მიერ მისი გატეხვით დამთავრებული.
მაგალითად, გარკვეული სამხედრო ობიექტის ავტომატიზირებული ან თუნდაც ნაწილობრივ ავტომატიზირებული მართვის სისტემა ხელოვნური ინტელექტის გამოყენებით, შეიძლება დისტანციურად გამოყენებული იქნას დამნაშავეების ან ტერორისტების მიერ, რომლებმაც მოახერხეს მისი მართვის ხელში ჩაგდება. სამომავლოდ ასეთი ავტომატიზირებული სისტემები შეიძლება გამოყენებულ იქნას სამხედრო ინფრასტრუქტურის ნებისმიერი ნაწილისთვის - საჰაერო თავდაცვის სისტემებიდან დაწყებული თერმობირთვული რაკეტების მაღაროებით დამთავრებული. და თუ დღეს რომელიმე ბოროტმოქმედს მათი ხელში ჩაგდების მიზნით მოუწევს ბრძოლა მთელ არმიასთან, მაშინ მომავალში ეს შეიძლება განხორციელდეს მხოლოდ თავდაცვის კოდირებული დაშიფრულ ელექტრონულ სისტემასთან ვირტუალური ბრძოლის მოგებით. უკვე დღეს, წამყვან სამხედრო დერჟავებს შეიარაღებაზე აქვთ უპილოტო საფრენი აპარატები, რომელთა გამოყენება შესაძლებელია არა მხოლოდ სადაზვერვო მიზნებისთვის, არამედ სარაკეტო- დაბომბვითი შეტევის დაწყების მიზნით. ახლა მათ მართავენ ოპერატორი-ადამიანები, რომლებიც უსაფრთხოდ იმყოფებიან დედამიწაზე, მაგრამ ნაკლებად სავარაუდოა, რომ სამხედრო უწყებები უარს იტყვიან მათი ხელოვნური ინტელექტით მომარაგებაზე, რომელსაც, ადამიანისგან განსხვავებით, შეუძლია მიიღოს სწორი გადაწყვეტილებები წამების მეასედში, სწრაფად დაამუშავოს ინფორმაცია ნებისმიერ ვითარებაში.
როგორც „რუსეთის ზარი“ ადრე იტყობინებოდა, მსოფლიოში უკვე აღიარებენ იმ საფრთხეს, რომელიც შეიძლება თან ახლდეს სამხედრო მიზნებით ხელოვნური ინტელექტის გამოყენებას. კერძოდ, ილონ მასკმა ერთი თვის წინ გაეროს მოთხოვა კანონმდებლობით აეკრძალა მსოფლიო დერჟავებისთვის ხელოვნური ინტელექტით აღჭურვილი სამხედრო ერთეულების გამოყენება.
ეს ყველაფერი მხოლოდ მცირე დეტალებია, რომელიც ავტორმა ხეელოვნური ინტელექტის ტექნოლოგიასთან დაკავშირებულ მილიონობით სავარაუდო საფრთხეებს შორის მოძებნა. საფრთხე, რომელიც მის უკან დგას, ფაქტობრივად ამოუწურავია, ისევე როგორც ამოუწურავია კაცობრიობის პრობლემები. ის საკმარისად არის უამრავი სცენარისთვის სამეცნიერო-ფანტასტიკური წიგნებისა და ფილმებისათვის. თითოეული მათგანი დემონსტრირებს იმას, რაც, სავარაუდოდ, საფრთხეს შექმნის მომავალში.
კაცობრიობა მიყვება პროგრესის გზას და მუდმივად აუმჯობესებს თავის ტექნოლოგიებს ერთადერთი მიზნით - გააუმჯობესოს თავისი ცხოვრება. გაზარდოს მისი კომფორტი, უსაფრთხოება, ხარისხი, ასევე დააკმაყოფილოს შექმნისა და ცოდნის სურვილი. მაგრამ, ცნობილი ბრიტანელი მეცნიერის სტივენ ჰოკინგის აზრით, რომელმაც არაერთხელ გააფრთხილა ხელოვნური ინტელექტის საფრთხეების შესახებ, ხელოვნური ინტელექტი გახდება ჩვენი ყველაზე საშიში თანაშემწე და ადამიანისთვის გამძლეობის ახალი გამოცდა. ამავე დროს, იგი მნიშვნელოვნად გარდაქმნის ჩვენი ცხოვრების ყველა ასპექტს, გახდება ისტორიაში უდიდესი ტექნოლოგიური რევოლუცია. მაგრამ ეს რევოლუცია შეიძლება აღმოჩნდეს ბოლო, თუ კაცობრიობა არ ისწავლის რისკების კონტროლს, თვლის ჰოკინგი.
ერთ-ერთი ასეთი რისკი, რომელსაც სპეციალისტები გარკვეული მიზეზების გამო არ აქცევენ სათანადო ყურადღებას, არის ადამიანების მიერ ინიციატივის დაკარგვის რისკი. ეს, ალბათ, განპირობებულია პრობლემისადმი მხოლოდ მეცნიერული მიდგომით, მაშინ როდესაც ხელოვნური ინტელექტის ტექნოლოგია, ჰოკინგის აზრით, გავლენას მოახდენს ჩვენი ცხოვრების აბსოლუტურად ყველა ასპექტსა და საკითხზე, მათ შორის ზნეობრივსა და ფილოსოფიურზე.
ტექნოლოგიური სინგულარობის ეპოქის დადგომასთან ერთად - ასე უწოდებენ მეცნიერები ჩვენს ისტორიაში არსებულ ჰიპოთეტურ მომენტს, როდესაც სამეცნიერო პროგრესი იმდენად სწრაფი და რთული ხდება, რომ გასაგებად გაუგებარია - სამყაროს გაუმჯობესება მთლიანად გადავა ხელოვნური ინტელექტის უწყებაში. სხვა სიტყვებით რომ ვთქვათ, კაცობრიობა მეცნიერული და ტექნოლოგიური პროგრესის პროცესსაც კი ავტომატიზირებულს ხდის. მაგრამ მერე რა დარჩება თავად ადამიანს?
ცხოვრების ყველა სფერო, ყველა სამუშაო, მათ შორის სამეცნიერო აღმოჩენები და კვლევები, განხორციელდება ავტომატურ რეჟიმში, ხოლო ადამიანები აღმოჩნდებიან მათ მიერვე შექმნილი ხელოვნური საქმიანობის ტოტალურ დამოკიდებულებაში. დამოკიდებულება, როგორც ცნობილია, გარკვეულწილად არის ადამიანის უძლურების, უნებისყოფობის ან სულის სისუსტის გამოვლენა. ხოლო ტექნოლოგიური სინგულარობის ეპოქაში ის საფუძვლად დაედება მთელ ცივილიზაციას, რადგან მანქანები ნებისმიერ საქმეს უფრო სწრაფად და უკეთესად შეასრულებენ, ვიდრე ადამიანები. უფრო მეტიც, ადამიანები საერთოდ შეწყვეტენ იმის გაგებას, თუ რას გააკეთებენ ხელოვნური ინტელექტის ყველაზე მოწინავე წარმომადგენლები, რადგან დღეს უბრალო მშრომელი ან ტაქსის მძღოლი ვერ წაიკითხავს C++ ენაზე დაწერილი პროგრამის კოდს.
და რა დარჩება ადამიანებს, როდესაც მათი მოთხოვნადობა აღარ იქნება საჭირო? გართობა და სიამოვნების მიღება? ჰედონიზმი? ალბათ, მეტი არაფერი. დროთა განმავლობაში, ისინი საბოლოოდ დაივიწყებენ იმის გაკეთებას, რაც ადრე შეეძლოთ - სწავლა, მშენებლობა, გარე სამყაროს გაუმჯობესება, დამოუკიდებელი გადაწყვეტილებების მიღება. უმოქმედობისგან, ადამიანების უმრავლესობა სწრაფად დაჩლუნგდება და დეგრადირებს. კაცობრიობის ხარისხი მნიშვნელოვნად შემცირდება ყველა თვალსაზრისით - მისი ინტელექტუალური პოტენციალიდან დაწყებული ფიზიკურ ჯანმრთელობამდე.
მაგრამ ყველაზე მთავარი და საშინელი ის არის, რომ ადამიანი დაკარგავს ინიციატივას. დაკარგავს დამოუკიდებლად მოქმედების, იმპროვიზირების შესაძლებლობას, გამჭრიახობის გამოჩენას. უფრო სწორად, ის დაკარგავს იმ საქმიანობისთვის მოტივაციას, რომელიც საუკუნეების განმავლობაში წინ მიუძღოდა ჩვენს ცხოვრებას.
საკუთარი ინტელექტის გამოყენების შეწყვეტის შემდეგ არსებობს რისკი, რომ ჩვენ ცხოველებად გარდავიქმნებით, რომლებიც სრულყოფილებამდე მიიყვანა ავტომატიზირებულმა სისტემამ. ცხოველები ნებაყოფლობით იტყვიან უარს გონებაზე, აირჩევენ პრიმიტიულ ინსტინქტებს და რამდენიმე სოციალურ წესს, რომელთა შესრულებას მკაცრად გააკონტროლებს ხელოვნური ინტელექტის იგივე საკონტროლო სისტემა.
მაგრამ მოტივაცია და ინიციატივა მთავარი შემადგენელი ნაწილია იმისა, რასაც ჩვენ ვუწოდებთ თავისუფალ ნებას, ან, რელიგიურ ენაზე, სულს. ეს არის მისი ფუნდამენტი, რომელსაც ემყარება ადამიანის ცნობიერება და, ფაქტობრივად, საკუთარი თავის ადამიანად გაცნობიერება საფუძვლად უდევს ნებისმიერ შემოქმედებას. ნების სურვილი ან, თუ გნებავთ, სული, არის მხოლოდ ადამიანის თვისება, რომელიც არ გააჩნია ხელოვნური ინტელექტის არც ერთ სისტემას და, სავარაუდოდ, ვერასოდეს მოიპოვებს მას. მთელი მისი საქმიანობა, მათ შორის სწავლის ყბადაღებული უნარი, არის თვითსრულყოფის პროგრამული კოდი, რომელიც თან სდევს შემმუშავებელის მიერ მკაფიოდ განსაზღვრულ ალგორითმებსა და კანონებს. რაც არ უნდა სრულყოფილი იყოს ხელოვნური ინტელექტი, ის სამუდამოდ არის განწირული იმისათვის, რომ დარჩეს უსულო მანქანად. მაგრამ ხომ არ რისკავს ადამიანი, რომ თავად გარდაიქმნება ასეთ მანქანად, თუ იგი უარს იტყვის თავის ერთადერთ ღვთაებრივ საჩუქარზე - ნების და სულის თავისუფლებაზე? ბუნებამ ან ღმერთმა მოგვცა შესაძლებლობა დამოუკიდებლად გავაკონტროლოთ საკუთარი ცხოვრება. რად გარდავიქმნებით, თუ უარი ვთქვით ამ ნიჭზე? ..
ამას ტექნოლოგიური სინგულარობა გვიჩვენებს.
============
В новой книге Николая Сенченко рассмотрены вопросы использования психофизического оружия для ведения невидимой войны псевдоэлиты против собственного народа. Психофизиче- ские средства без ведома самого человека лишают его права са- мостоятельного выбора логически обоснованных решений, сво- боды выбора своего поведения, исполнения желаний, выражения эмоций и даже психофизиологического состояния организма (на- строения, здоровья). В предельном варианте человек, испытавший психофизическое воздействие, превращается в «зомби», который безотказно выполняет заложенную в него программу. Книга предназначена для тех, кто собирается жить в Украине и быть свободным Человеком. https://kreative-ukraine.net.ua/n-i-senchenko-nevidimaya-voyna-psikhofi/?v=7516fd43adaa. ....
http://lira-k.com.ua/preview/12551.pdfее.
https://news.usc.edu/127835/schizophrenia-disrupts-the-brains-entire-communication-system-researchers-say/?fbclid=IwAR0aQI4svj3qjye170fQOjUqjCZnJxbRHE2ZiRnILuAnvAnkNPWoiPbBXlM
https://www.discovermagazine.com/mind/the-insanity-virus?fbclid=IwAR2ieG2oWII3m3K05m3DoUMoVkfG9w1Ifv_-iWDVdnAcFUdrCR4VbXJNV8g
https://www.psychiatrictimes.com/schizophrenia/gut-microbiome-first-episode-psychosis
http://jonlieffmd.com/blog/microbes-effect-on-the-brain?fbclid=IwAR14yWxpCMQBOzqajXGYYvnBNR2K8Q9fkWSQKpY5hIGjrISD_4-2Zs6TskM
ТЕОРИЯ ИНЦЕСТА И ТОТЕМНОСТЬ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
Да, да - вот так, и не иначе. Потому что эта дискуссия происходила в Мраморном зале Петербургского Музея Этнографии, а это знаете ли обязывает.
Я обожаю Питер. Да, именно а такой формулировке. В этом городе со мной ВСЕГДА происходит следующее:
- я ВСЕГДА занимаюсь здесь любовью.
Я не знаю места на земле, где было бы лучше это делать. Нева и каналы, дворцы и лачуги, город набит литературными персонажами и поэтому всегда в башке воспоминанием звучит чья--то драматичная любовная тема.... В общем, это лучший город для любви или игр в любовь.
- я ВСЕГДА здесь встречаю интересных людей. Сегодняшний день набит встречами. Но две хочу выделить особенно. Татьяна Черниговская и старенький учитель рисования из лицея ( к сожалению, не запомнила имени).
Ну, Татьяна Владимировна - просто родной и очень остроумный человек, очень свободно интеллектуально движущийся там, где большинство моих знакомых гениев-мужчин просто буксует.
А учитель рисования, очень пожилой и очень маленького роста мужчина, дождался пока толпа вокруг рассосется, и совершенно серьезно рассказал, где я сделала ошибку или сознательную манипуляцию в своем докладе. Он очень точно попал. Меня поразило даже не то, что человек, абсолютно далекий от точных наук, внес значимую содержательную лепту в мою работу, а изящество и интеллигентность, с которой он это проделал. (Оказывается, я скучаю по изящной речи и хорошим манерам. Сама не ожидала)
- я ВСЕГДА здесь много брожу по улицам и наслаждаюсь домами, мостами и людьми. Сегодня это был абсолютно серебрянный мост Лейтенанта Шмидта и чудесная пожилая пара любовников в Летнем Саду. Они, лет по 60, полные, не очень красивые, но совершенно несчастно-счастливые обжимались на скамеечке, как восьмиклашки, которым негде, и не отрывали взгляд друг от друга. И это было ТАК прекрасно, что - дай Бог им счастья вместе или по отдельности...
- и, наверное, самое важное, в Питере меня ВСЕГДА посещает что-то совсем новое, необычное.
Сегодня, выступая в Этнографическом Музее, я вспомнила великого антрополога Клода Леви-Стросса:
"...Мы начали с того, что отделили человека от природы и поставили его над ней. Таким образом мы думали уничтожить самое неотъемлемое свойство человека, а именно то, что он прежде является живым существом. Тем же, что мы закрывали глаза на это общее свойство, дана была свобода для всяких злоупотреблений..."
И пока я раздумывала о его теории инцеста и тотемных повадках человечества ( Искусственный Интеллект - новый тотем нашего мира) Меня посетила мысль про систему коллективного представления ИИ, по учению Леви-Стросса. Но это уже тема отдельного поста.
Сам антрополог очень много времени провел, изучая дикие индейские племена в Южной и Северной Америках, оттуда он привез следующую цитату:
""Каждая сакральная вещь должна быть на своем месте", — глубокомысленно заметил один туземный мыслитель..."
http://eroskosmos.org/rising-earth-consciousness
https://readtime.ge/2019/03/%E1%83%A1%E1%83%90%E1%83%A5%E1%83%90%E1%83%A0%E1%83%97%E1%83%95%E1%83%94%E1%83%9A%E1%83%9D-%E1%83%A1%E1%83%90%E1%83%94%E1%83%A0%E1%83%97%E1%83%9D%E1%83%93-%E1%83%90%E1%83%A0-%E1%83%9B
https://www.slideserve.com/billie/nanoparticle-radiation-detectors
https://www.ncbi.nlm.nih.gov/pubmed/28587265
https://www.nature.com/articles/srep01288
https://ecomesure.com/en/scientific-instruments/nanoparticle-detector
https://www.nanopartikel.info/en/projects/completed-projects/nanoexpo
https://innovation.ox.ac.uk/licence-details/nanoparticle-detection/
https://www.beckman.com/flow-cytometry/instruments/cytoflex/nanoparticle-detection
https://www.nanosupermarket.org/nanodetector?fbclid=IwAR1BrAbN-eaS_orOEDpAFOooicsnLzTfMxnklSZgrlYJmwB7Y0Pd4_m60d8
https://technology.nasa.gov/patent/TOP2-236
https://spie.org/news/1619-tracking-gold-nanoparticles-in-the-body?SSO=1
https://www.nanopartikel.info/en/nanoinfo/basics/988-uptake-basics
https://www.understandingnano.com/sensor.html
http://emfsafetynetwork.org/
https://www.nano.gov/SensorsNSIPortal
https://www.5gexposed.com/?download=%7Bdownload%7D&print=print
http://www.europereloaded.com/western-insanity-5g-electromagnetic-radiation/
https://byuiscroll.org/tag/church-news/
https://technogog.com/information/how-stuff-works-cell-phone-towers/
https://insidetowers.com/cell-tower-news-church-steeple-cell-site-faithful-surroundings
https://godisterrible.com/why-are-churches-hiding-antennas-in-their-steeples/
https://www.slideshare.net/mobile/omarmasry/upcoming-2017-wireless-siting-challenges
http://www.civilin.org/
http://biokor17.ru/?fbclid=IwAR1TVXwgEPR30XECtZ3QsSVl2jmsGSiQM98l_43q9fwYJxu91LSdfkyif_k
https://www.emfanalysis.com/berkeley-church-cell-tower/
https://napravdestoy.livejournal.com/109905.html
https://alexandrafl.livejournal.com/131322.html
https://books.google.com/books?id=yPsrDQAAQBAJ&pg=PT4&lpg=PT4&dq=%D0%B0%D0%BD%D1%82%D0%B5%D0%BD%D0%BD%D1%8B+%D0%B2+%D1%86%D0%B5%D1%80%D0%BA%D0%B2%D0%B8&source=bl&ots=BGvAk0SzZZ&sig=ACfU3U1nI7PmFrtdjlZMBo0iDkha3yf6cg&hl=ru&sa=X&ved=2ahUKEwjW9KG9h8LnAhUCOq0KHYmBA8QQ6AEwFHoECAYQAQ#v=onepage&q=%D0%B0%D0%BD%D1%82%D0%B5%D0%BD%D0%BD%D1%8B%20%D0%B2%20%D1%86%D0%B5%D1%80%D0%BA%D0%B2%D0%B8&f=false
А вот находятся же люди, которые за просто так выкладывают хорошие книжки. Спасибо им.
Д. Биркстед-Брин. Работа психоанализа: сексуальность, время и психоаналитический разум. https://www.academia.edu/36599225/The_Work_of_Psychoanalysis_Sexuality_Time_and_the_Psychoanalytic_Mind.pdf
П. Сандлер. Клиническое применения теорий Биона. https://www.academia.edu/25425134/A_CLINICAL_APPLICATION_OF_BIONS_CONCEPTS
Л. Скудери. Введение в работы Андре Грина. https://www.academia.edu/36388180/The_Work_of_André_Green_an_Introduction
Международный словарь психоанализа. Под ред. А. де Мижола. https://www.academia.edu/14161224/The_International_Dictionary_of_Psychoanalysis
http://tasteandtruth.blogspot.com/2015/02/at-price-relationship-between-love-and.html?m=1
it’s the human that is turned into artificial identity or artificial Intelligence"
End of humanity This is when the want to bypass this layer of reality without looking at the shadow and projections and it really equates to going out of body putting feelings in a box... like that's ever goibg to work
https://www.osho.com/ru/highlights-of-oshos-world/%D0%BE%D1%88%D0%BE-%D1%81%D0%B2%D1%8F%D1%89%D0%B5%D0%BD%D0%BD%D0%B8%D0%BA%D0%B8-%D0%B8-%D0%BF%D0%BE%D0%BB%D0%B8%D1%82%D0%B8%D0%BA%D0%B8
https://hi-news.ru/eto-interesno/mozhno-li-zarazitsya-kitajskim-virusom-cherez-posylku-s-aliexpress.html
http://photomadd.com/camera-sony-nex-5n/
https://photographylife.com/reviews/sony-nex-5n
https://chazsin.com/tag/city-lights/
https://35media.ru/articles/2020/02/12/desyat-vazhnyh-voprosov-o-koronaviruse
https://www.dw.com/ru/%D0%BF%D1%81%D0%B8%D1%85%D0%BE%D0%BB%D0%BE%D0%B3-%D0%BE-%D1%82%D0%BE%D0%BC-%D0%BE%D0%BF%D1%80%D0%B0%D0%B2%D0%B4%D0%B0%D0%BD-%D0%BB%D0%B8-%D1%81%D1%82%D1%80%D0%B0%D1%85-%D0%BF%D0%B5%D1%80%D0%B5%D0%B4-%D0%BA%D0%B8%D1%82%D0%B0%D0%B9%D1%86%D0%B0%D0%BC%D0%B8-%D0%B8%D0%B7-%D0%B7%D0%B0-%D0%BA%D0%BE%D1%80%D0%BE%D0%BD%D0%B0%D0%B2%D0%B8%D1%80%D1%83%D1%81%D0%B0/a-52279302
რობოტების აჯანყება ჰოლივუდში შექმნილი ზღაპარია, რომელიც შეიძლება რეალობად იქცეს.
ბოლო წლების განმავლობაში მსოფლიო სამეცნიერო საზოგადოება სულ უფრო ხშირად ლაპარაკობს ხელოვნური ინტელექტის ტექნოლოგიების განვითარებასთან დაკავშირებულ რისკებზე. თავად თემა ადამიანებისთვის დიდი ხანია ახალი არ არის - მანქანების აჯანყების ან რობოტების ომის იდეები კაცობრიობის წინააღმდეგ არაერთხელ წამოჭრილა ფანტასტიკურ ნაწარმოებებსა თუ ფილმებში. მაგრამ ახლა მას სერიოზულად განიხილავენ გამოჩენილი მეცნიერები, სერიოზული კორპორაციების წარმომადგენლები, რომლებიც მონაწილეობდნენ ხელოვნური ინტელექტის შექმნაში, და მსოფლიო დერჟავების მეთაურებიც კი. დღეს ჩვენ შევეცდებით გავერკვეთ, თუ რა იმალება ადამიანების შიშს უკან საკუთარი ტექნოლოგიების წინაშე და რა საფრთხეების წინაშე შეიძლება აღმოჩნდეს ჩვენს ცხოვრებაში ხელოვნური ინტელექტის დანერგვა.
სექტემბერში, რუსეთის პრეზიდენტმა ვლადიმერ პუტინმა, იაროსლავის ფორუმის „პროექტორიის“ ფარგლებში გამოსვლისას, ცალსახად განაცხადა, რომ ნებისმიერი ქვეყანა, რომელმაც მიაღწია ლიდერობას ხელოვნური ინტელექტის შექმნის სფეროში (შემდგომ, ტექსტის მიხედვით - ხელოვნური ინტელექტი, - შენიშვნა „კრ“), პირდაპირი მნიშვნელობით გახდება „მსოფლიოს მბრძანებელი“, ხოლო თავად ტექნოლოგია მთელი კაცობრიობის მომავლის საფუძველია. ამავე დროს, პრეზიდენტმა ხაზი გაუსვა იმ საფრთხეს, რომელიც ელოდება ამ გზაზე კაცობრიობას. მან იგი დაახასიათა, როგორც „დღეს რთულად პროგნოზირებადი საფრთხეები“.
უნდა ითქვას, რომ ეროვნული ლიდერის მიერ გაჟღერებული ეს ფრაზა, იდეალურად გადმოსცემს პრობლემის ბუნებას. მართლაც, სამეცნიერო-ტექნიკური პროგრესის თანამედროვე ტემპების გათვალისწინებით, დღეს ტექნოლოგიის სფეროში მომავლის პროგნოზირება ძალიან რთულია, ხოლო იმ ნაწილში, რომელიც დაკავშირებულია ხელოვნური ინტელექტის შემუშავებასა და გამოყენებასთან, - ორმაგად. ეს არის ყველაზე ტევადი და რთულად გასაგები სფერო, რომელიც მთლიანად IT-ს, ავტომატიზაციისა და პროგრამირების სფეროში ყველაზე მოწინავე მოვლენებზეა დაფუძნებული. ხელოვნური ინტელექტისთვის დამახასიათებელი უმარტივესი სისტემის მუშაობის ალგორითმების გასაგებად, საჭიროა იმ საგნების ცოდნა, რომლის მიღებაც თანამედროვე სამყაროში პრაქტიკული გამოცდილების გარეშე შეუძლებელია. მიუხედავად ამისა, ტექნოლოგიის ზოგადი სპეციფიკისა და მიზნების გათვალისწინებით, შეიძლება ვივარაუდოთ, თუ როგორ გავლენას მოახდენს ჩვენს ცივილიზაციაზე და რა პრობლემებს გამოიწვევს.
გასული სამი წლის განმავლობაში ხელოვნური ინტელექტის სწრაფი განვითარების შესახებ შეშფოთება გამოთქვა ყველა გამოჩენილმა მოღვაწემ, რომლებიც იდგნენ ტექნოლოგიის სათავეებში. ილონ მასკი, პირველი კერძო კოსმოსური კომპანიის SpaceX-ის დამფუძნებელი, რომელიც თავის პროექტებში იყენებს ხელოვნურ ინტელექტს, მიიჩნევს, რომ საფრთხე აქტუალური გახდება უახლოეს წლებში.
„სერიოზული ინციდენტების რისკი, რომელიც მოხდება ხელოვნური ინტელექტის გამო, ძალიან დიდია. ეს მოხდება ხუთი, მაქსიმუმ ათი წლის განმავლობაში. მიაქციეთ ყურადღება იმას, რომ მე ვარ სპეციალისტი ტექნოლოგიების დარგში. ამ პრობლემის შესახებ ბოლო თვეების განმავლობაში არ მისაუბრია. ასე რომ, ეს არ არის ის შემთხვევა, როდესაც ვიღაც ყვირის მგელის შესახებ, ან ლაპარაკობს იმაზე, რაშიც საერთოდ არ ერკვევა“, - აფრთხილებდა SpaceX–ის ხელმძღვანელი ჯერ კიდევ 2014 წელს.
ილონ მასკმა ხაზგასმით აღნიშნა, რომ ხელოვნური ინტელექტი დღეს ძალიან სწრაფი ტემპებით ვითარდება, რის შესახებ ადამიანების უმეტესობამ არც კი იცის. ამგვარი მკვეთრი ტექნოლოგიური ნახტომის შესაძლო შედეგების გათვალისწინებით, ხელოვნური ინტელექტის შემუშავებით დაკავებული კორპორაციები უზარმაზარ სახსრებს და ძალისხმევას ინვესტირებენ სათანადო კონტროლისა და უსაფრთხოების უზრუნველსაყოფად. ამასთან, ფაქტი არ არის, რომ ეს საკმარისი იქნება, თუ გავითვალისწინებთ ტექნოლოგიური შედეგების არაპროგნოზირებადობას და საკმაოდ რთულ პროგნოზირებადობას - სამეცნიეროს, ეკონომიკურს და პოლიტიკურს.
აქ უნდა გავიხსენოთ, რომ ხელოვნურ ინტელექტს კონკრეტული მისია აქვს, რისთვისაც იგი არის შემუშავებული და გაუმჯობესებული. ეს მისია მდგომარეობს კომპიუტერისა და ადამიანის საქმიანობის მაქსიმალურ ავტომატიზაციაში. ანუ, ხელოვნურ ინტელექტს საბოლოოდ დაეკისრება ყველა ის ფუნქცია, რომელზეც დღეს პასუხს აგებენ ცოცხალი და სავსებით რეალური ადამიანები - ქუჩის დალაგებით დაწყებული პროგრამული კოდის შექმნით დამთავრებული. ეს კი ნიშნავს, რომ ის პრობლემები, რომლებსაც გადაეყრება კაცობრიობა ხელოვნური ინტელექტის გამოყენების დროს, აბსოლუტურად ანალოგიური იქნება იმ პრობლემებისა, რომლებიც მათ მთელი ისტორიის განმავლობაში შეექმნათ. ეს არის მორალურ-ეთიკური არჩევანის საკითხი, დანაშაული, სოციალურ-ეკონომიკური ფაქტორები, კანონმდებლობის თავისებურებები. ანალოგიური და ამდენადვე უსაზღვრო.
სხვა სიტყვებით რომ ვთქვათ, ხელოვნური ინტელექტის მთავარი საშიშროება, რომლის წინაშეც დღეს ან ხვალ აღმოვჩნდებით, მდგომარეობს არა თავად ტექნოლოგიაში, არამედ მისი გამოყენების მეთოდებში. ნებისმიერი ადამიანის ჩვეული საქმიანობის სფერო, მაგალითად, ქუჩის დასუფთავების ავტომატიზაცია, - აუცილებლად გამოიწვევს უმუშევრობის მკვეთრ ზრდას, რაც, თავის მხრივ, უარყოფითად იმოქმედებს ადამიანების სოციალურ-ეკონომიკურ კეთილდღეობაზე და მიგვიყვანს დანაშაულის ზრდასთან. აქვე წამოიჭრება ძალიან მწვავე ზნეობრივი საკითხები. რა არის უკეთესი - საბრალო მეეზოვეების განთავისუფლება, მათი საარსებო წყაროს გარეშე დატოვება, თუ მანქანების მომსახურებაზე უარის თქმა, დანაკარგი ეფექტურობასა და ეკონომიკაში? მეორეს მხრივ, რამდენად ჰუმანურია ადამიანის იძულება, თუნდაც ფულის გამო, ხელით ქუჩის დასუფთავება, როდესაც ეს შეიძლება მიენდოს ავტომატიზებულ სისტემას?
ინგლისში სამრეწველო რევოლუციის დროს, ათასობით სამსახურიდან განთავისუფლებული მუშა ქუჩაში გავიდა ეკონომიკაში ფაბრიკის დაზგების დანერგვის გაპროტესტების მიზნით, რომელთა წყალობით შრომითი პროდუქტიულობამ ახალ დონეს მიაღწია. მაღალ პროდუქტიულობასთან ერთად, მნიშვნელოვნად შემცირდა ადგილობრივი მანუფაქტურების და ფაბრიკების პერსონალი, რამაც გამოიწვია ისტორიაში პირველი „მანქანათა აჯანყება“ ან „აჯანყება მანქანების წინააღმდეგ“. ჩვენს ცხოვრებაში ხელოვნური ინტელექტის დანერგვას მეცნიერები განიხილავენ, როგორც შემდეგ ტექნოლოგიურ რევოლუციას, მაგრამ მისი შედეგები ბევრად უფრო გლობალური იქნება, ვიდრე ქარხნისთვის დაზგების გამოგონება.
ახალი ტექნოლოგია იძლევა არა მხოლოდ წარმოების პროცესის, არამედ საკვანძო გადაწყვეტილებების მიღების პროცესის ავტომატიზირების შესაძლებლობას, მათ შორის მმართველობითის. ჩვენი ცივილიზაციის არსებობის მთელი დროის განმავლობაში, ეს სამუშაო ეკისრებოდა მხოლოდ იმ ადამიანებს, რომლებსაც ბუნების ან ღმერთის სურვილით აქვთ გონება და საკუთარი ნება. ზოგადად, ის გადაწყვეტილებები, რომლებსაც ხელოვნური ინტელექტი მიიღებს, ასევე იქნება ადამიანის მიერ მიღებული. ისინი ეფუძნება ალგორითმსა და პრიორიტეტებს, რომლებიც მასში შემქმნელთა მიერ არის ჩადებული. აქ კი ხელოვნური ინტელექტის ტექნოლოგია კვლავ იგივე პრობლემების წინაშე დადგება, რომელსაც ცხოვრებაში ხშირად ვხვდებით. თანაც, უკვე უახლოეს მომავალში.
მაგალითად, დღეს ეს ეხება Google კომპანიის ინჟინრებს, რომლებმაც შეიმუშავეს უპილოტო ავტომობილები. დავუშვათ, რომ მათ დახვეწეს ხელოვნური ინტელექტის ტექნოლოგია, რომელიც მართავს მანქანას მძღოლის გარეშე, და ასეთი ავტომობილები გაუშვეს მასობრივ წარმოებაში. როგორ მოიქცევა ხელოვნური ინტელექტი, თუ წესების დარღვევის გარეშე ავტომაგისტრალზე მოძრაობისას მას მანქანის ქვეშ ჩაუვარდება ქალი ბავშვით, რომელმაც უყურადღებობის გამო ვერ შეამჩნია მოახლოვებული სატრანსპორტო საშუალება? ხელოვნურ ინტელექტს არ შეუძლია, ისევე როგორც ცოცხალ მძღოლს, პროგნოზირება გაუწიოს ქალის ქცევას, რომელიც ბოლო მომენტამდე მიდიოდა გზის პირას, შემდეგ კი მოულოდნელად გადაწყვიტა გზის არასათანადო ადგილზე გადაკვეთა. სწრაფი დამუხრუჭება გამოიწვევს საგზაო-სატრანსპორტო შემთხვევას, რომლის დროსაც ქალი და ბავშვი აუცილებლად დაიღუპეიან. და თუ ხელოვნური ინტელექტი, მისი შემქმნელების მიერ მასში ჩადებული მორალის შესაბამისად იხელმძღვანელებს, მკვეთრად მოუხვევს და ავტომობილი გადავარდება თხრილში ან შემხვედრ ზოლზე აღმოჩნდება, ალბათ დაიღუპებიან მანქანის მფლობელი და მისი მგზავრები. ორივე შემთხვევაში ხელოვნური ინტელექტი გახდება მკვლელი, თუნდაც უნებლიე. მაგრამ მეორე ვარიანტის შემთხვევაში, იგი ფაქტობრივად, მიზანმიმართულად მოკლავს თავის პატრონს, რომელიც მის ადგილზე, ალბათ, თავს არ გაწირავდა. ანუ, მეორე შემთხვევაში, მოხდება მანქანების კლასიკური აჯანყება ფანტასტების და ჰოლივუდის სცენარისტების საყვარელი თემატიკის შესაბამისად. მაგრამ ეს ყველაფერი შეიძლება მოხდეს რეალობაში და თანაც უახლოეს თვალმისაწვდომ მომავალში.
ხელოვნური ინტელექტის მხრიდან კაცობრიობისათვის შესაძლო საფრთხის შესახებ აფრთხილებს ინფორმაციული სისტემების ცნობილი ავტორი და Microsoft-ის კომპანიის დამფუძნებელი ბილ გეიტსი. ამერიკელი მილიარდერი თვლის, რომ ყველაზე სერიოზული საფრთხის წინაშე ადამიანები მაშინ აღმოჩნდებიან, როდესაც ხელოვნური ინტელექტის ტექნოლოგია გახდება იმდენად მრავალდონიანი და რთული, რომ თავად მისი შემქმნელები ვერ შეძლებენ სისტემაში არსებული პროცესების კონტროლს. ბილ გეიტსის აზრით, ეს იქნება „ხელოვნური სუპერინტელექტი“.
უნდა ითქვას, რომ ეს ეხება ხელოვნური ინტელექტის მიერ რთული გადაწყვეტილებების მიღებას. მრავალჯერადი ალგორითმები, რომლებიც გამოხატავენ ერთდროულად პრაგმატულ ანგარიშსწორებას, მორალურ-ზნეობრივ მოსაზრებებს და კანონმდებლობის თავისებურებებს, რომლებიც თავდაპირველად ჩადებული ექნებათ შემქმნელებს, წინააღმდგებობაში შევლენ ერთმანეთთან, როგორც ეს მუდმივად ხდება ადამიანებში. თუ პრიორიტეტები არასწორად იქნება განაწილებული ან ერთმანეთში აირევა მრავალი წინააღმდეგობის შედეგად, მაშინ ხელოვნური ინტელექტის ქცევა გახდება არაპროგნოზირებადი და შეიძლება ნებისმიერი შედეგი გამოიწვიოს - სისტემის შრომისუნარიანობის შემცირებიდან ადამიანების ღია და მიზანმიმართულ მკვლელობამდე.
ამ შემთხვევაში ყველაზე დიდ საფრთხეს წარმოადგენენ ხელოვნური ინტელექტის ტექნოლოგიები, რომლებიც გამოიყენება თავდაცვის ინდუსტრიაში. გეოპოლიტიკით განპირობებული გამალებული შეიარაღება აუცილებლად მიგვიყვანს იქამდე, რომ მომავალში ხელოვნური ინტელექტის მიერ მართულ საბრძოლო ერთეულებს - ტანკებიდან დაწყებული საბრძოლო რობოტებით დამთავრებული - მიეცემა შესაძლებლობა მიიღოს დამოუკიდებელი გადაწყვეტილებები სამხედრო ოპერაციების დროს - ბრძოლის ველზე ან შეიარაღებული კონფლიქტების დროს. აქ შეგიძლიათ მოძებნოთ სავარაუდო საფრთხეების მთელი სპექტრი - სისტემიდან გადაცდენით დაწყებული და ბოროტმოქმედი ჰაკერების მიერ მისი გატეხვით დამთავრებული.
მაგალითად, გარკვეული სამხედრო ობიექტის ავტომატიზირებული ან თუნდაც ნაწილობრივ ავტომატიზირებული მართვის სისტემა ხელოვნური ინტელექტის გამოყენებით, შეიძლება დისტანციურად გამოყენებული იქნას დამნაშავეების ან ტერორისტების მიერ, რომლებმაც მოახერხეს მისი მართვის ხელში ჩაგდება. სამომავლოდ ასეთი ავტომატიზირებული სისტემები შეიძლება გამოყენებულ იქნას სამხედრო ინფრასტრუქტურის ნებისმიერი ნაწილისთვის - საჰაერო თავდაცვის სისტემებიდან დაწყებული თერმობირთვული რაკეტების მაღაროებით დამთავრებული. და თუ დღეს რომელიმე ბოროტმოქმედს მათი ხელში ჩაგდების მიზნით მოუწევს ბრძოლა მთელ არმიასთან, მაშინ მომავალში ეს შეიძლება განხორციელდეს მხოლოდ თავდაცვის კოდირებული დაშიფრულ ელექტრონულ სისტემასთან ვირტუალური ბრძოლის მოგებით. უკვე დღეს, წამყვან სამხედრო დერჟავებს შეიარაღებაზე აქვთ უპილოტო საფრენი აპარატები, რომელთა გამოყენება შესაძლებელია არა მხოლოდ სადაზვერვო მიზნებისთვის, არამედ სარაკეტო- დაბომბვითი შეტევის დაწყების მიზნით. ახლა მათ მართავენ ოპერატორი-ადამიანები, რომლებიც უსაფრთხოდ იმყოფებიან დედამიწაზე, მაგრამ ნაკლებად სავარაუდოა, რომ სამხედრო უწყებები უარს იტყვიან მათი ხელოვნური ინტელექტით მომარაგებაზე, რომელსაც, ადამიანისგან განსხვავებით, შეუძლია მიიღოს სწორი გადაწყვეტილებები წამების მეასედში, სწრაფად დაამუშავოს ინფორმაცია ნებისმიერ ვითარებაში.
როგორც „რუსეთის ზარი“ ადრე იტყობინებოდა, მსოფლიოში უკვე აღიარებენ იმ საფრთხეს, რომელიც შეიძლება თან ახლდეს სამხედრო მიზნებით ხელოვნური ინტელექტის გამოყენებას. კერძოდ, ილონ მასკმა ერთი თვის წინ გაეროს მოთხოვა კანონმდებლობით აეკრძალა მსოფლიო დერჟავებისთვის ხელოვნური ინტელექტით აღჭურვილი სამხედრო ერთეულების გამოყენება.
ეს ყველაფერი მხოლოდ მცირე დეტალებია, რომელიც ავტორმა ხეელოვნური ინტელექტის ტექნოლოგიასთან დაკავშირებულ მილიონობით სავარაუდო საფრთხეებს შორის მოძებნა. საფრთხე, რომელიც მის უკან დგას, ფაქტობრივად ამოუწურავია, ისევე როგორც ამოუწურავია კაცობრიობის პრობლემები. ის საკმარისად არის უამრავი სცენარისთვის სამეცნიერო-ფანტასტიკური წიგნებისა და ფილმებისათვის. თითოეული მათგანი დემონსტრირებს იმას, რაც, სავარაუდოდ, საფრთხეს შექმნის მომავალში.
კაცობრიობა მიყვება პროგრესის გზას და მუდმივად აუმჯობესებს თავის ტექნოლოგიებს ერთადერთი მიზნით - გააუმჯობესოს თავისი ცხოვრება. გაზარდოს მისი კომფორტი, უსაფრთხოება, ხარისხი, ასევე დააკმაყოფილოს შექმნისა და ცოდნის სურვილი. მაგრამ, ცნობილი ბრიტანელი მეცნიერის სტივენ ჰოკინგის აზრით, რომელმაც არაერთხელ გააფრთხილა ხელოვნური ინტელექტის საფრთხეების შესახებ, ხელოვნური ინტელექტი გახდება ჩვენი ყველაზე საშიში თანაშემწე და ადამიანისთვის გამძლეობის ახალი გამოცდა. ამავე დროს, იგი მნიშვნელოვნად გარდაქმნის ჩვენი ცხოვრების ყველა ასპექტს, გახდება ისტორიაში უდიდესი ტექნოლოგიური რევოლუცია. მაგრამ ეს რევოლუცია შეიძლება აღმოჩნდეს ბოლო, თუ კაცობრიობა არ ისწავლის რისკების კონტროლს, თვლის ჰოკინგი.
ერთ-ერთი ასეთი რისკი, რომელსაც სპეციალისტები გარკვეული მიზეზების გამო არ აქცევენ სათანადო ყურადღებას, არის ადამიანების მიერ ინიციატივის დაკარგვის რისკი. ეს, ალბათ, განპირობებულია პრობლემისადმი მხოლოდ მეცნიერული მიდგომით, მაშინ როდესაც ხელოვნური ინტელექტის ტექნოლოგია, ჰოკინგის აზრით, გავლენას მოახდენს ჩვენი ცხოვრების აბსოლუტურად ყველა ასპექტსა და საკითხზე, მათ შორის ზნეობრივსა და ფილოსოფიურზე.
ტექნოლოგიური სინგულარობის ეპოქის დადგომასთან ერთად - ასე უწოდებენ მეცნიერები ჩვენს ისტორიაში არსებულ ჰიპოთეტურ მომენტს, როდესაც სამეცნიერო პროგრესი იმდენად სწრაფი და რთული ხდება, რომ გასაგებად გაუგებარია - სამყაროს გაუმჯობესება მთლიანად გადავა ხელოვნური ინტელექტის უწყებაში. სხვა სიტყვებით რომ ვთქვათ, კაცობრიობა მეცნიერული და ტექნოლოგიური პროგრესის პროცესსაც კი ავტომატიზირებულს ხდის. მაგრამ მერე რა დარჩება თავად ადამიანს?
ცხოვრების ყველა სფერო, ყველა სამუშაო, მათ შორის სამეცნიერო აღმოჩენები და კვლევები, განხორციელდება ავტომატურ რეჟიმში, ხოლო ადამიანები აღმოჩნდებიან მათ მიერვე შექმნილი ხელოვნური საქმიანობის ტოტალურ დამოკიდებულებაში. დამოკიდებულება, როგორც ცნობილია, გარკვეულწილად არის ადამიანის უძლურების, უნებისყოფობის ან სულის სისუსტის გამოვლენა. ხოლო ტექნოლოგიური სინგულარობის ეპოქაში ის საფუძვლად დაედება მთელ ცივილიზაციას, რადგან მანქანები ნებისმიერ საქმეს უფრო სწრაფად და უკეთესად შეასრულებენ, ვიდრე ადამიანები. უფრო მეტიც, ადამიანები საერთოდ შეწყვეტენ იმის გაგებას, თუ რას გააკეთებენ ხელოვნური ინტელექტის ყველაზე მოწინავე წარმომადგენლები, რადგან დღეს უბრალო მშრომელი ან ტაქსის მძღოლი ვერ წაიკითხავს C++ ენაზე დაწერილი პროგრამის კოდს.
და რა დარჩება ადამიანებს, როდესაც მათი მოთხოვნადობა აღარ იქნება საჭირო? გართობა და სიამოვნების მიღება? ჰედონიზმი? ალბათ, მეტი არაფერი. დროთა განმავლობაში, ისინი საბოლოოდ დაივიწყებენ იმის გაკეთებას, რაც ადრე შეეძლოთ - სწავლა, მშენებლობა, გარე სამყაროს გაუმჯობესება, დამოუკიდებელი გადაწყვეტილებების მიღება. უმოქმედობისგან, ადამიანების უმრავლესობა სწრაფად დაჩლუნგდება და დეგრადირებს. კაცობრიობის ხარისხი მნიშვნელოვნად შემცირდება ყველა თვალსაზრისით - მისი ინტელექტუალური პოტენციალიდან დაწყებული ფიზიკურ ჯანმრთელობამდე.
მაგრამ ყველაზე მთავარი და საშინელი ის არის, რომ ადამიანი დაკარგავს ინიციატივას. დაკარგავს დამოუკიდებლად მოქმედების, იმპროვიზირების შესაძლებლობას, გამჭრიახობის გამოჩენას. უფრო სწორად, ის დაკარგავს იმ საქმიანობისთვის მოტივაციას, რომელიც საუკუნეების განმავლობაში წინ მიუძღოდა ჩვენს ცხოვრებას.
საკუთარი ინტელექტის გამოყენების შეწყვეტის შემდეგ არსებობს რისკი, რომ ჩვენ ცხოველებად გარდავიქმნებით, რომლებიც სრულყოფილებამდე მიიყვანა ავტომატიზირებულმა სისტემამ. ცხოველები ნებაყოფლობით იტყვიან უარს გონებაზე, აირჩევენ პრიმიტიულ ინსტინქტებს და რამდენიმე სოციალურ წესს, რომელთა შესრულებას მკაცრად გააკონტროლებს ხელოვნური ინტელექტის იგივე საკონტროლო სისტემა.
მაგრამ მოტივაცია და ინიციატივა მთავარი შემადგენელი ნაწილია იმისა, რასაც ჩვენ ვუწოდებთ თავისუფალ ნებას, ან, რელიგიურ ენაზე, სულს. ეს არის მისი ფუნდამენტი, რომელსაც ემყარება ადამიანის ცნობიერება და, ფაქტობრივად, საკუთარი თავის ადამიანად გაცნობიერება საფუძვლად უდევს ნებისმიერ შემოქმედებას. ნების სურვილი ან, თუ გნებავთ, სული, არის მხოლოდ ადამიანის თვისება, რომელიც არ გააჩნია ხელოვნური ინტელექტის არც ერთ სისტემას და, სავარაუდოდ, ვერასოდეს მოიპოვებს მას. მთელი მისი საქმიანობა, მათ შორის სწავლის ყბადაღებული უნარი, არის თვითსრულყოფის პროგრამული კოდი, რომელიც თან სდევს შემმუშავებელის მიერ მკაფიოდ განსაზღვრულ ალგორითმებსა და კანონებს. რაც არ უნდა სრულყოფილი იყოს ხელოვნური ინტელექტი, ის სამუდამოდ არის განწირული იმისათვის, რომ დარჩეს უსულო მანქანად. მაგრამ ხომ არ რისკავს ადამიანი, რომ თავად გარდაიქმნება ასეთ მანქანად, თუ იგი უარს იტყვის თავის ერთადერთ ღვთაებრივ საჩუქარზე - ნების და სულის თავისუფლებაზე? ბუნებამ ან ღმერთმა მოგვცა შესაძლებლობა დამოუკიდებლად გავაკონტროლოთ საკუთარი ცხოვრება. რად გარდავიქმნებით, თუ უარი ვთქვით ამ ნიჭზე? ..
ამას ტექნოლოგიური სინგულარობა გვიჩვენებს.
============
В новой книге Николая Сенченко рассмотрены вопросы использования психофизического оружия для ведения невидимой войны псевдоэлиты против собственного народа. Психофизиче- ские средства без ведома самого человека лишают его права са- мостоятельного выбора логически обоснованных решений, сво- боды выбора своего поведения, исполнения желаний, выражения эмоций и даже психофизиологического состояния организма (на- строения, здоровья). В предельном варианте человек, испытавший психофизическое воздействие, превращается в «зомби», который безотказно выполняет заложенную в него программу. Книга предназначена для тех, кто собирается жить в Украине и быть свободным Человеком. https://kreative-ukraine.net.ua/n-i-senchenko-nevidimaya-voyna-psikhofi/?v=7516fd43adaa. ....
http://lira-k.com.ua/preview/12551.pdfее.
https://news.usc.edu/127835/schizophrenia-disrupts-the-brains-entire-communication-system-researchers-say/?fbclid=IwAR0aQI4svj3qjye170fQOjUqjCZnJxbRHE2ZiRnILuAnvAnkNPWoiPbBXlM
https://www.discovermagazine.com/mind/the-insanity-virus?fbclid=IwAR2ieG2oWII3m3K05m3DoUMoVkfG9w1Ifv_-iWDVdnAcFUdrCR4VbXJNV8g
https://www.psychiatrictimes.com/schizophrenia/gut-microbiome-first-episode-psychosis
http://jonlieffmd.com/blog/microbes-effect-on-the-brain?fbclid=IwAR14yWxpCMQBOzqajXGYYvnBNR2K8Q9fkWSQKpY5hIGjrISD_4-2Zs6TskM
n a small town, contrary to popular belief, you really have the space to become and be yourself. In a small town, people's eccentricities become normal to people. They know you, they know your family. Whereas in cities, you tend to go to like-minded people. But in a small town, it's just 600 very eclectic people. So I think growing up in the Prairies helped me become an individual." (k.d. lang, CBC Music)
В маленьком городе, вопреки распространенному мнению, у вас действительно есть место, чтобы стать и быть собой. В маленьком городе чудачества людей становятся нормой для людей. Они знают тебя, они знают твою семью. В то время как в городах вы склонны идти к единомышленникам. Но в маленьком городе всего 600 очень эклектичных людей. Поэтому я думаю, что взросление в прериях помогло мне стать человеком »(к.д. лэнг, CBC Music)
ttps://www.cbc.ca/arts/cbc-arts-most-memorable-quotes-of-the-year-1.3366575
I think masculinity is bravado against the mystery of the universe of women. It's just a fear of not knowing what women have that's so powerful. It's this shield they put up to try to get closer.
K. D. Lang
Я думаю, что мужественность - это бравада против тайны вселенной женщин. Это просто страх не знать, какие женщины есть, это так сильно. Это тот щит, который они ставят, чтобы попытаться приблизиться.
К. Д. Ланг
AGNES MARTIN
When I think of art I think of beauty. Beauty is the mystery of life. It is not in the eye it is in the mind. In our minds there is awareness of perfection.
BEAUTY
АГНЕС МАРТИН
Когда я думаю об искусстве, я думаю о красоте. Красота - это тайна жизни. Это не в глазах, это в уме. В наших умах есть осознание совершенства.
КРАСОТА
When I think of art I think of beauty. Beauty is the mystery of life. It is not in the eye it is in the mind. In our minds there is awareness of perfection.
BEAUTY
АГНЕС МАРТИН
Когда я думаю об искусстве, я думаю о красоте. Красота - это тайна жизни. Это не в глазах, это в уме. В наших умах есть осознание совершенства.
КРАСОТА
Love is an endless mystery, for it has nothing else to explain it.
Rabindranath Tagore
Любовь - это бесконечная тайна, ей больше нечего объяснить.
Рабиндранат Тагор
https://www.nytimes.com/2017/12/19/health/lethal-viruses-nih.html?fbclid=IwAR2IdN0wrfk7MBSqAtZrNkPvE6UWcNrFNKRKGDf5x_4g-1NmAowWPuk-wAk
https://www.kold.com/2019/10/17/toxic-chemicals-found-baby-foods-study-finds/?fbclid=IwAR1fTxPZh-BqoU128q2OGgITtdsUWBNQswS6hrHJv2HXQgLVjFYHHlqAeBg
https://www.vice.com/en_us/article/wjw8ww/bernie-sanders-is-the-first-candidate-to-call-for-ban-on-facial-recognition?fbclid=IwAR1E0KmuTem7K4qa2-PVsgNfKWwxyeRRTLitgrEoujzLlGzjJABVrPUUW-s
https://historynewsnetwork.org/article/1796?fbclid=IwAR2ZFNm7E-fkxF0pr8-y4WrQGkVL6PfSPmHT9IA4vtf_Zd8w0kTyrb5yERg
Terence Mckenna on setting your internal compass towards beauty.
“We have to create culture, don't watch TV, don't read magazines, don't even listen to NPR. Create your own roadshow. The nexus of space and time where you are now is the most immediate sector of your universe, and if you're worrying about Michael Jackson or Bill Clinton or somebody else, then you are disempowered, you're giving it all away to icons, icons which are maintained by an electronic media so that you want to dress like X or have lips like Y. This is shit-brained, this kind of thinking. That is all cultural diversion, and what is real is you and your friends and your associations, your highs, your orgasms, your hopes, your plans, your fears. And we are told 'no', we're unimportant, we're peripheral. 'Get a degree, get a job, get a this, get a that.' And then you're a player, you don't want to even play in that game. You want to reclaim your mind and get it out of the hands of the cultural engineers who want to turn you into a half-baked moron consuming all this trash that's being manufactured out of the bones of a dying world.”
― Terence McKenna
“We have to create culture, don't watch TV, don't read magazines, don't even listen to NPR. Create your own roadshow. The nexus of space and time where you are now is the most immediate sector of your universe, and if you're worrying about Michael Jackson or Bill Clinton or somebody else, then you are disempowered, you're giving it all away to icons, icons which are maintained by an electronic media so that you want to dress like X or have lips like Y. This is shit-brained, this kind of thinking. That is all cultural diversion, and what is real is you and your friends and your associations, your highs, your orgasms, your hopes, your plans, your fears. And we are told 'no', we're unimportant, we're peripheral. 'Get a degree, get a job, get a this, get a that.' And then you're a player, you don't want to even play in that game. You want to reclaim your mind and get it out of the hands of the cultural engineers who want to turn you into a half-baked moron consuming all this trash that's being manufactured out of the bones of a dying world.”
― Terence McKenna
http://imvigor.info/2014/ 07/эффект-плацебо-ноцебо/
. Феномены внушения и гипнотического транса
...
Сила плацебо
Подробнее: https://bookap.info/gypno/ kondrashov_vse_o_gipnoze/ gl10.shtm
https://bookap.info/gypno/ kondrashov_vse_o_gipnoze/ gl10.shtm
. Феномены внушения и гипнотического транса
...
Сила плацебо
Подробнее: https://bookap.info/gypno/
https://bookap.info/gypno/
Невротические расстройства
Основные формы шизофрении
https:// thepresentation.ru/ medetsina/ nevroticheskie-rasstroystva -3
https://ppt-online.org/ 466609
http://www.atheism.ru/ frase/
Основные формы шизофрении
https://
https://ppt-online.org/
http://www.atheism.ru/
Да, да - вот так, и не иначе. Потому что эта дискуссия происходила в Мраморном зале Петербургского Музея Этнографии, а это знаете ли обязывает.
Я обожаю Питер. Да, именно а такой формулировке. В этом городе со мной ВСЕГДА происходит следующее:
- я ВСЕГДА занимаюсь здесь любовью.
Я не знаю места на земле, где было бы лучше это делать. Нева и каналы, дворцы и лачуги, город набит литературными персонажами и поэтому всегда в башке воспоминанием звучит чья--то драматичная любовная тема.... В общем, это лучший город для любви или игр в любовь.
- я ВСЕГДА здесь встречаю интересных людей. Сегодняшний день набит встречами. Но две хочу выделить особенно. Татьяна Черниговская и старенький учитель рисования из лицея ( к сожалению, не запомнила имени).
Ну, Татьяна Владимировна - просто родной и очень остроумный человек, очень свободно интеллектуально движущийся там, где большинство моих знакомых гениев-мужчин просто буксует.
А учитель рисования, очень пожилой и очень маленького роста мужчина, дождался пока толпа вокруг рассосется, и совершенно серьезно рассказал, где я сделала ошибку или сознательную манипуляцию в своем докладе. Он очень точно попал. Меня поразило даже не то, что человек, абсолютно далекий от точных наук, внес значимую содержательную лепту в мою работу, а изящество и интеллигентность, с которой он это проделал. (Оказывается, я скучаю по изящной речи и хорошим манерам. Сама не ожидала)
- я ВСЕГДА здесь много брожу по улицам и наслаждаюсь домами, мостами и людьми. Сегодня это был абсолютно серебрянный мост Лейтенанта Шмидта и чудесная пожилая пара любовников в Летнем Саду. Они, лет по 60, полные, не очень красивые, но совершенно несчастно-счастливые обжимались на скамеечке, как восьмиклашки, которым негде, и не отрывали взгляд друг от друга. И это было ТАК прекрасно, что - дай Бог им счастья вместе или по отдельности...
- и, наверное, самое важное, в Питере меня ВСЕГДА посещает что-то совсем новое, необычное.
Сегодня, выступая в Этнографическом Музее, я вспомнила великого антрополога Клода Леви-Стросса:
"...Мы начали с того, что отделили человека от природы и поставили его над ней. Таким образом мы думали уничтожить самое неотъемлемое свойство человека, а именно то, что он прежде является живым существом. Тем же, что мы закрывали глаза на это общее свойство, дана была свобода для всяких злоупотреблений..."
И пока я раздумывала о его теории инцеста и тотемных повадках человечества ( Искусственный Интеллект - новый тотем нашего мира) Меня посетила мысль про систему коллективного представления ИИ, по учению Леви-Стросса. Но это уже тема отдельного поста.
Сам антрополог очень много времени провел, изучая дикие индейские племена в Южной и Северной Америках, оттуда он привез следующую цитату:
""Каждая сакральная вещь должна быть на своем месте", — глубокомысленно заметил один туземный мыслитель..."
http://eroskosmos.org/rising-earth-consciousness
https://readtime.ge/2019/03/%E1%83%A1%E1%83%90%E1%83%A5%E1%83%90%E1%83%A0%E1%83%97%E1%83%95%E1%83%94%E1%83%9A%E1%83%9D-%E1%83%A1%E1%83%90%E1%83%94%E1%83%A0%E1%83%97%E1%83%9D%E1%83%93-%E1%83%90%E1%83%A0-%E1%83%9B
https://www.ncbi.nlm.nih.gov/pubmed/28587265
https://www.nature.com/articles/srep01288
https://ecomesure.com/en/scientific-instruments/nanoparticle-detector
https://www.nanopartikel.info/en/projects/completed-projects/nanoexpo
https://innovation.ox.ac.uk/licence-details/nanoparticle-detection/
https://www.beckman.com/flow-cytometry/instruments/cytoflex/nanoparticle-detection
https://www.nanosupermarket.org/nanodetector?fbclid=IwAR1BrAbN-eaS_orOEDpAFOooicsnLzTfMxnklSZgrlYJmwB7Y0Pd4_m60d8
https://technology.nasa.gov/patent/TOP2-236
https://spie.org/news/1619-tracking-gold-nanoparticles-in-the-body?SSO=1
https://www.nanopartikel.info/en/nanoinfo/basics/988-uptake-basics
https://www.understandingnano.com/sensor.html
http://emfsafetynetwork.org/
https://www.nano.gov/SensorsNSIPortal
https://www.5gexposed.com/?download=%7Bdownload%7D&print=print
http://www.europereloaded.com/western-insanity-5g-electromagnetic-radiation/
https://byuiscroll.org/tag/church-news/
https://technogog.com/information/how-stuff-works-cell-phone-towers/
https://insidetowers.com/cell-tower-news-church-steeple-cell-site-faithful-surroundings
https://godisterrible.com/why-are-churches-hiding-antennas-in-their-steeples/
https://www.slideshare.net/mobile/omarmasry/upcoming-2017-wireless-siting-challenges
http://www.civilin.org/
http://biokor17.ru/?fbclid=IwAR1TVXwgEPR30XECtZ3QsSVl2jmsGSiQM98l_43q9fwYJxu91LSdfkyif_k
https://www.emfanalysis.com/berkeley-church-cell-tower/
https://alexandrafl.livejournal.com/131322.html
https://books.google.com/books?id=yPsrDQAAQBAJ&pg=PT4&lpg=PT4&dq=%D0%B0%D0%BD%D1%82%D0%B5%D0%BD%D0%BD%D1%8B+%D0%B2+%D1%86%D0%B5%D1%80%D0%BA%D0%B2%D0%B8&source=bl&ots=BGvAk0SzZZ&sig=ACfU3U1nI7PmFrtdjlZMBo0iDkha3yf6cg&hl=ru&sa=X&ved=2ahUKEwjW9KG9h8LnAhUCOq0KHYmBA8QQ6AEwFHoECAYQAQ#v=onepage&q=%D0%B0%D0%BD%D1%82%D0%B5%D0%BD%D0%BD%D1%8B%20%D0%B2%20%D1%86%D0%B5%D1%80%D0%BA%D0%B2%D0%B8&f=false
Д. Биркстед-Брин. Работа психоанализа: сексуальность, время и психоаналитический разум. https://www.academia.edu/36599225/The_Work_of_Psychoanalysis_Sexuality_Time_and_the_Psychoanalytic_Mind.pdf
П. Сандлер. Клиническое применения теорий Биона. https://www.academia.edu/25425134/A_CLINICAL_APPLICATION_OF_BIONS_CONCEPTS
Л. Скудери. Введение в работы Андре Грина. https://www.academia.edu/36388180/The_Work_of_André_Green_an_Introduction
Международный словарь психоанализа. Под ред. А. де Мижола. https://www.academia.edu/14161224/The_International_Dictionary_of_Psychoanalysis
http://tasteandtruth.blogspot.com/2015/02/at-price-relationship-between-love-and.html?m=1
it’s the human that is turned into artificial identity or artificial Intelligence"
End of humanity This is when the want to bypass this layer of reality without looking at the shadow and projections and it really equates to going out of body putting feelings in a box... like that's ever goibg to work
https://hi-news.ru/eto-interesno/mozhno-li-zarazitsya-kitajskim-virusom-cherez-posylku-s-aliexpress.html
http://photomadd.com/camera-sony-nex-5n/
https://photographylife.com/reviews/sony-nex-5n
https://chazsin.com/tag/city-lights/
https://www.dw.com/ru/%D0%BF%D1%81%D0%B8%D1%85%D0%BE%D0%BB%D0%BE%D0%B3-%D0%BE-%D1%82%D0%BE%D0%BC-%D0%BE%D0%BF%D1%80%D0%B0%D0%B2%D0%B4%D0%B0%D0%BD-%D0%BB%D0%B8-%D1%81%D1%82%D1%80%D0%B0%D1%85-%D0%BF%D0%B5%D1%80%D0%B5%D0%B4-%D0%BA%D0%B8%D1%82%D0%B0%D0%B9%D1%86%D0%B0%D0%BC%D0%B8-%D0%B8%D0%B7-%D0%B7%D0%B0-%D0%BA%D0%BE%D1%80%D0%BE%D0%BD%D0%B0%D0%B2%D0%B8%D1%80%D1%83%D1%81%D0%B0/a-52279302
Комментариев нет:
Отправить комментарий
Will be revised