მეცნიერებატექნოლოგიები

უნდა გვეშინოდეს თუ არა ხელოვნური ინტელექტის?

სტატიის ავტორია ლუჩიანო ფლორიდი, ფილოსოფიისა და ინფორმაციული ეთიკის პროფესორი ოქსფორდის უნივერსიტეტში, ეთიკის შესწავლის ცენტრ „Uihero“-ს საპატიო სამეცნიერო თანამშრომელი.

წარმოიდგინეთ, რომ უცნობი შენობის ბნელ ოთახში შედიხართ. შეგიძლიათ, პანიკაში ჩავარდეთ იმ მონსტრებზე ფიქრისას, რომლებიც შეიძლება სიბნელეში იმალებოდნენ. ანდა, შეგიძლიათ უბრალოდ შუქი ჩართოთ, რათა შემთხვევით ავეჯს არ დაეჯახოთ. ეს ბნელი ოთახი ხელოვნური ინტელექტის მომავლის მეტაფორაა. სამწუხაროდ, ბევრ ადამიანს სჯერა, რომ ამ ოთახში შეიძლება საშიშ, ძალიან ჭკვიან არსებებს გადააწყდეთ. ეს შიში უკვე დიდი ხანია ცოცხლობს, ხოლო დაიბადა ის 1960-იან წლებში, როცა ინგლისელმა მათემატიკოსმა, რომელიც ბლეთჩლი-პარკში თვით ალან ტიურინგთან მუშაობდა, ირვინ ჯონ ჰუდმა, დაწერა:

„მოდით, ულტრაინტელექტუალურ მანქანას ასეთი დეფინიცია მივცეთ: ეს არის მანქანა, რომლის შესაძლებლობები ნებისმიერი ჭკვიანი ადამიანის ინტელექტუარ შესაძლებლობებს ბევრად აღემატება. რადგანაც ამგვარი მანქანის შექმნა ამ შესაძლებლობათაგან ერთ-ერთია, ულტრაინტელექტუალურ მანქანას შეუძლია კიდევ უფრო სრულყოფილი მანქანა შეექმნას, რაც, უდავოდ, „ინტელექტის ამოფრქვევას“ გამოიწვევდა და ადამიანის გონებას უკან მოიტოვებდა. ასე, პირველი ულტრაინტელექტუალური მანქანა გახდება უკანასკნელი გამოგონება, რომელიც შეგვეძლება მხოლოდ ადამიანს მივაწეროთ; ეს ყველაფერი იმის გათვალისწინებით, რომ ეს მანქანა საკმარისად დამჯერი იქნება და მოგვახსენებს, თუ როგორ უნდა დავტოვოთ ჩვენი კონტროლის ქვეშ. საინტერესოა, რომ ეს დაკვირვებები იშვიათად თუ გვხვდება სამეცნიერო ფანტასტიკის საზღვრებს გარეთ. ზოგჯერ, აჯობებს ლიტერატურის ამ ჟანრს უფრო სერიოზულად შევხედოთ“.

როცა ულტრაინტელექტუალური მანქანები ფანტასტიკის მაგივრად რეალობა გახდება, არაა გამორიცხული, რომ ისინი ტერმინატორივით მოიქცნენ: კაცობრიობა, როგორც მათზე სუსტი ჯიში დაიმონონ, დაარღვიონ ჩვენი უფლებები და მხოლოდ საკუთარი ინტერესებიდან გამომდინარე იმოქმედონ იმ გავლენის გათვალისწინების გარეშე, რომელიც მათ ადამიანთა ცხოვრებაზე ექნებათ.

თუკი თქვენ ეს ყველაფერი რეალურ სცენარად არ გეჩვენებათ, აჯობებს, ამ საკითხზე კიდევ ერთხელ დაფიქრდეთ. ვიმოგზაუროთ დროში და 50 წლით უკან დავბრუნდეთ – ციფრული ტექნოლოგიების სფეროში განსაცვიფრებელი აღმოჩენების გამო, ბევრმა დაიჯერა, რომ გუდის მიერ აღწერილი „ინტელექტის ამოფრქვევა“ სერიოზული საფრთხეა, რომელიც კაცობრიობის დაღუპვას მიზეზი გახდება, თუკი ჩვენ ფრთხილად არ მოვიქცევით. აი, რა თქვა სტივენ ჰოკინგმა 2014 წელს:

„სრულფასოვანი ხელოვნური ინტელექტის შექმნას შეუძლია ადამიანთა რასა გაანადგუროს“.

დაახლოებით იგივე პოზიცია აქვს ბილ გეიტსს:

„მე იმ ადამიანებს მივეკუთვნები, რომლებსაც ზეინტელექტის პრობლემა აწუხებთ. თავდაპირველად, ისინი ბევრ საქმეს ჩვენს მაგივრად გააკეთებენ, თუმცა არ ექნებათ წვდომა ზეინტელექტთან. ეს საკმაოდ პოზიტიური სქემაა, თუკი მას თავს გავართმევთ. მაგრამ, რამდენიმე ათწლეულის შემდეგ, ხელოვნური ინტელექტი მიაღწევს განვითარების ისეთ დონეს, რომელიც მართლაც იქნება მღელვარების საბაბი. ამ საკითხში მე ვეთანხმები ილონ მასკსა და ერთი-ორ სხვა ადამიანს და არ მესმის, თუ რატომ არ ადარდებს ზოგიერთს ეს პრობლემა“.

საინტერესოა, რა თქვა ილონ მასკმა, „Tesla“-ს აღმასრულებელმა დირექტორმა?

„ხელოვნურ ინტელექტს ძალიან ფრთხილად უნდა მოვექცეთ. თუ მკითხავენ, რა არის ყველაზე დიდი საფრთხე ჩვენი არსებობისთვის, ვუპასუხებდი, რომ ეს ზუსტად ისაა. სულ უფრო და უფრო მეტი მეცნიერი თვლის, რომ საჭიროა კონტროლის სისტემის დაარსება, შეიძლება ეროვნულ და საერთაშორისო დონეებზე, მხოლოდ იმიტომ მაინც, რომ დავრწმუნდეთ, რამე უგუნურს ხომ არ ვაკეთებთ. ხელოვნური ინტელექტის შექმნისას, თითქოს ეშმაკს ვიძახებთ. იგივე სიტუაციაში ვხვდებით, როგორც ტიპური ისტორიების გმირი, რომელიც პენტოგრამითა და ნაკურთხი წყლით შეიარაღებული დარწმუნებულია, რომ დიახ, რა თქმა უნდა, შეუძლია ეშმაკის კონტროლი. მოინდომა ბიჭმა“.

რეალობა ბევრად უფრო ბანალურად გამოიყურება. ამ წლის მარტში, „Microsoft“-მა გამოუშვა „Tay“ – ჩათ-ბოტი „Twitter“-სთვის, რომელიც ხელოვნური ინტელექტის ბაზაზე შეიქმნა. 16 საათის შემდეგ, მათ მისი წაშლა მოუწიათ. კომპანიაში იმედოვნებდნენ, რომ ადამიანებთან ურთიერთობა მის ინტელექტს გაზრდიდა. ამის მაგივრად, იგი მალევე პროფაშისტურად განეწყო, უარყოფდა ჰოლოკოსტს, აქებდა ინცესტს და ჯორჯ უოკერ ბუშს 11 სექტემბრის ტერაქტებში სდებდა ბრალს. რატომ? იმიტომ, რომ მუშაობდა იგივე პრინციპით, როგორც ტილო, რომელიც ყველაფერს იწოვს და ცვლის თავის ფორმას იმ შეტყობინებების გავლენით, რომლებსაც მას უგზავნიან. „Microsoft“-ს ბოდიშის მოხდა მოუწია.

ასეთია სიტუაცია ხელოვნური ინტელექტის შექმნის სფეროში. ზეინტელექტუალური მანქანების საფრთხეზე ლაპარაკში ბევრი დრო დაიხარჯა, ამიტომაც, დროა ავანთოთ შუქი, შევწყვიტოთ ნერვიულობა მოვლენათა განვითარების სამეცნირო-ფანტანსტიკურ ვარიანტებზე და კონცეტრაცია მოვახდინოთ ხელოვნური ინტელექტის რეალურ პრობლემებზე, რათა თავიდან ავიცილოთ მტკივნეული და ძვირი შეცდომები ჩვენი სმარტ-ტექნოლოგიების პროექტირების და გამოყენების პროცესში.

ნება მომეცით, დავაზუსტო, თუ რას ვამბობ. ფილოსოფიას ნიუანსები არ უყვარს. მან შეიძლება თავი სიზუსტისა და მკვეთრი განსხვავებების მაგალითად ჩათვალოს, მაგრამ სინამდვილეში მისი გული პოლარიზაციასა და დიქოტომიებს ეკუთვნის. ინტერნალიზმი თუ ექსტერნალიზმი, ფუნდამენტალიზმი თუ კოჰერენტულობა, „ვაგონეტის პრობლემა“, ზომბია თუ არაა ზომბი, სუბიექტური თუ ობიექტური, რეალური თუ არარეალური სამყაროები, დასჯილები თუ არდასჯილები… ფილოსოფია შეიძლება ქადაგებდეს ყოვლისმომცველ vel-ს („გოგონებმა ან ბიჭებმა უნდა ითამაშონ“), მაგრამ ძალიან ხშირად მაინც წამოეგოს aut aut-ის („შენ ეს ან მოგწონს, ან არა“) ანკესს.

კამათი, რომელიც ხელოვნური ინტელექტის პრობლემების გამო მიდის, ამის კიდევ ერთი მაგალითია. ამ შემთხვევაში, საუბარია დიქოტომიაზე მათ შორის, ვისაც სწამს ჭეშმარიტი ხელოვნური ინტელექტი და ვინც მისი მოწინააღმდეგეა. დიახ, ნამდვილი ინტელექტი და არა „Siri“ სმარტფონში, „Roomba“ მისაღებ ოთახში ან „Nest“ სამზარეულოში (სხვათა შორის, ამ სამივე ტექნოლოგიის ბედნიერი მფლობელი გახლავართ). უკეთესია, წარმოიდგინოთ ცრუ მარია „მეტროპოლისიდან“ (1927); HAL 9000 „2001 წელი: კოსმიური ოდისეადან“ (1968), რომლის გადაღებისას ჰუდი, სხვათა შორის, კონსულანტი იყო; რეიჩელზე „სამართებელზე მორბენალიდან“ (1982); დეიტეზე ტელესერიალ „ვარვსკვლავური გზა: ახალი თაობადან“ (1987); აგენტ სმიტზე „მატრიცადან“ (1999) ან უტანო სამანთაზე ფილმ „მისიდან“ (2013). მოკლედ, მიხვდებოდით, რასაც ვგულისხმობ. ჭეშმარიტი ხელოვნური ინტელექტის და ჰუდის „ინტელექტის ამოფრქვევის“ კონცეფციის მიმდევრები სინგულარისტთა „ეკლესიას“ მიეკუთვნებიან. რადგანაც უკეთესი ტერმინი არ მომეპოვება, ადამიანებს, რომლებიც ამ აზრებს არ იზიარებენ, ალთეისტების „ეკლესიის“ მიმდევრებს ვუწოდებ. მოდით, ამ ორ რელიგიას შევხედოთ და გავიგოთ, თუ რატომ ცდება ორივე მათგანი. იქამდე კი, დაიმახსოვრეთ: ფილოსოფია თითქმის ყოველთვის სადღაც მოსაწყენ შუალედშია მოქცეული.

სინგულარისტებს სამი დოგმის სწამთ. პირველი ამბობს, რომ არც თუ ისე შორ მომავალში შესაძლებელი იქნება ხელოვნური ინტელექტის ზოგიერთი ნაირსახეობის შექმნა. ეს გარდატეხის მომენტი ცნობილია „ტექნოლოგიური სინგულარობის“ სახელით, რამაც შესაბამის მოძრაობასაც მისცა სახელწოდება. ხელოვნური ინტელექტის არც ბუნება და არც მისი შექმნის ზუსტი თარიღია ცნობილი, თუმცა, სინგულარიზმი ამჯობინებს ისეთი მომავლის სცენარს, რომელზეც დაყრდნობით შეიძლება ითქვას, რომ ზემოთხსენებული მოვლენები „მოხდება საკმარისად მალე იმისთვის, რომ მათზე ნერვიულობა დავიწყოთ, თუმცა არც ისე სწრაფად, რომ შავი დღის დადგომის პირას გვეგონოს თავი“.

მეორე დოგმა ამბობს, რომ კაცობრიობა ზეინტელექტის მონობაში მოხვედრის სერიოზული საფრთხის წინაშე დგას. მესამე კი მდგომარეობს იმაში, რომ ჩვენი თაობის უპირველესი პასუხისმგებლობაა, არ დაუშვას სინგულარობის ეპოქის დადგომა, ხოლო თუ ამ ეპოქის თავიდან აცილება შეუძლებელი იქნება, ისე მაინც ქნას, რომ ამ ყველაფრით კაცობრიობამ სარგებელი ნახოს. რწმენის ეს სისტემა ძალიან ჰგავს მანიქეიზმს: სიკეთისა და ბოროტების ბრძოლა, აპოკალიპტური ობერტონი, გზავნილ „სასწრაფოდ რამე უნდა ვიღონოთ, თორემ მერე გვიანი იქნება“-ს პათეტიკურობა, კაცობრიობის გადარჩენის ესქატოლოგიური პერსპექტივა და ლტოლვა შიშისა და უცოდინრობის მიმართ.

ეს ყველაფერი ასეთ კონტექსტში მოათავსეთ: ადამიანები სამართლიანად არიან შეწუხებულნი სულელური ციფრული ტექნოლოგიების გავლენით მათ ცხოვრებაზე, განსაკუთრებით კი შრომის ბაზართან და ციფრულ ომებთან მიმართებაში, პრესა კი ყოველდღე იუწყება ახალ გაჯეტებზე და უნახავ კომპიუტერულ კატასტროფებზე. მიიღებთ ყურადღების გადასატან ბრწყინვალე საშუალებას: ციფრულ ოპიუმს ხალხისთვის.

როგორც რწმენაზე დაფუძნებული შეხედულებათა ყველა სისტემა, სინგულარობა უარყოფას არ ექვემდებარება, რადგანაც, საბოლოო ჯამში, იგი არ შეიძლება შეიზღუდოს ლოგიკითა თუ მტკიცებულებებით. იგი დაუჯერებელია, რადგანაც არ არსებობს მიზეზი გვწამდეს, რომ კომპიუტერებისა და ციფრული ტექნოლოგიების ჩვენი აღქმა, დღევანდელ დღეს თუ ახლო მომავალში, საშუალებას მოგვცემს შევქმნათ რამე, ახლო ინტელექტუალურ აპარატებთან (სულ არაფერი რომ ვთქვათ ზეინტელექტუალურებზე). ნება მომეცით, აგიხსნათ.

ზოგჯერ, სინგულარობა პირობითადაა წარმოდგენილი. ეს მოსახერხებელია, რადგანაც მაშინ გამომდინარეობს თუ-დან და არა „ტყუილიდან – ყველაფერში“ პარადიგმით: თუ გაჩნდებოდა ზეინტელექტის მაგვარი რამ, მაშინ ჩვენ დიდ განსაცდელში აღმოვჩნდებოდით (და არა „შეიძლება აღმოვჩნდეთ“, როგორც ჰოკინგმა განაცხადა). აბსოლოტურად სწორია. მაგრამ მაშინ, მართალია შემდეგი ვარაუდიც: თუ აპოკალიფსის ოთხი მხედარი გამოჩნდება, მაშინ ცუდი დღე დაგვიდგება.

ზოგჯერ, სინგულარობა ეყრდნობა ძალიან სუსტ ალბათობას: ხელოვნური ინტელექტის რაღაც ფორმა შეიძლება აღმოცენდეს, განა არა? კი, შეიძლება. მაგრამ ეს „შეიძლება“ მხოლოდ და მხოლოდ ლოგიკური დაშვებაა. როგორც ჩვენთვისაა ცნობილი, არ არსებობს ისეთი რამე, რაც გააქარწყლებდა ხელოვნური ინტელექტის შექმნის შესაძლებლობას. მაგრამ, ასეთი მიდგომა საფრთხეს შეიცავს, რადგანაც იგი არაფრად აგდებს კოლოსალურ განსხვავებას ორ მტკიცებას შორის: „შეიძლება, ხვალე ცუდად გავხდე“, როცა უკვე ვერ ვგრძნობ თავს კარგად და „შეიძლება, მე პეპელა ვარ, რომელსაც ესიზმრება, რომ ადამიანია“.

თამამად შეიძლება გამოითქვას ვარაუდი, რომ გარდაცვლილმა ნათესავმა, რომელზეც წესიერად არც კი გაგიგიათ, 10 მილიონი დოლარი დაგიტოვათ. აქ არანაირი ურთიერთწინააღმდეგობა არაა. შესაძლოა, ასეც მომხდარიყო. ანუ რა? შეიძლება, ურთიერთწინააღმდეგობები, როგორც ბედნიერად დაქორწინებული მარტოხელა კაცები, სულაც არ ასახავს რეალურ სურათს, მაგრამ, არა-ურთიერთწინააღმდეგობები, როგორც, მაგალითად, ვარაუდი, რომ ჩვენთან ახლოს მცხოვრები უცხოპლანეტელები ისე კარგად იმალებიან, რომ ვერასდროს აღმოვაჩენთ, მაინც უარვყოთ, როგორც აბსოლოტურად არანორმალური. სხვა სიტყვებით, შესაძლებელია არ არის იგივე შეიძლება მოხდეს, რომელსაც, დავუშვათ, მიწისძვრას მივუსადაგებდით, მაგრამ არასწორია, რომ არ შეიძლება დავუშვათ, რომ თქვენ დედამიწაზე პირველი უკვდავი ადამიანი გახდით. ეს ასეა, თუმცა სულაც არაა მიზეზი იქცეოდეთ ისე, თითქოს მართლაც სამუდამოდ იცხოვრებთ; თუკი, რა თქმა უნდა, ვინმე საპირისპიროს არ დაამტკიცებს და არ გვაჩვენებს, რომ კომპიუტერული ტექნოლოგიების აღქმაში, დღეს ან მომავალში, არ არსებობს ისეთი რამ, რაც საშუალებას მოგვცემს ვივარაუდოთ, რომ ხელოვნური ინტელექტის აღმოცენება სულაც არაა შორეული პერსპექტივა.

ამ შემთხვევაში, სინგულარისტები ერთმანეთში ურევენ რწმენას და ფაქტებს, რაც საკმაოდ ხშირად გამოწვეულია აპოკალიპტური გადაუდებლობის გულწრფელი წინათგრძნობით. ისინი საუბრობენ სამუშაო ადგილების დაკარგვაზე; რომ ყველა ციფრულ სისტემას საფრთხე დაემუქრება; გაგიჟებულ დრონებზე და გამოთვლითი ტექნოლოგიების სხვა სერიოზულ პრობლემებზე, რომლებიც მალე იბატონებენ ადამიანთა ცხოვრებებზე – დაწყებული განათლებითა და სამუშაოთი, დამთავრებული გართობითა და კონფლიქტებით. აქედან გამომდინარე, ისინი პანიკას იწყებენ, რადგან ჰგონიათ, რომ ცოტა ხანში ვეღარ შეძლებენ თავიანთი „Honda Civic“-ის მართვას, იმიტომ რომ უკანასკნელს საკუთარი გონება გაუჩნდება. გაურკვეველი რჩება, თუ ოდესმე როგორ მოახერხებს ხელოვნური ინტელექტის ზოგიერთი აპარატი თავისი გამოთვლითი შესაძლებლობები ვიწრო პარკირების ადგილის დონიდან დაძრას. სიმართლე მდგომარეობს იმაში, რომ ხეზე აძრომა არა მთვარისკენ გადადგმული პატარა ნაბიჯი, არამედ გზის დასასრულია. რასაც ჩვენ სინამდვილეში ვიხილავთ, არის ეპოქა, როცა სულ უფრო და უფრო ჭკვიან ტექნოლოგიებს შეეძლებათ, გაუმკლავდნენ უფრო მეტ ამოცანას, ვიდრე ჩვენ.

როცა ყველა სხვა არგუმენტი მარცხს იწვნის, სინგულარისტები მათემატიკას უხმობენ. მათი საყვარელი დამხმარე „მურის კანონია“. ეს კანონი წარმოადგენს ემპირიულ მტკიცებას, რომ ციფრული კომპიუტერების განვითარებისას, ინტეგრალური სქემის კრისტალზე განლაგებული ტრანზისტორების რაოდენობა ორჯერ იზრდება. აქამდე, შედეგად გამოთვლითი ძალის ზრდა გვქონდა, მაგრამ დრო ერთ ადგილას როდი დგას. ტექნიკური პრობლემები ნანოტექნოლოგიების სფეროში სერიოზულად ართულებს წარმოებას. ბოლოს და ბოლოს, არსებობს პროდუქციის დაპატარავების ზღვარი, რომლის გადაკვეთისას პატარა ნივთები უბრალოდ გაქრობას დაიწყებენ. „მურის კანონი“ გამოყენებადი აღარ არის. მხოლოდ იმიტომ, რომ რაღაც გარკვეული დროის განმავლობაში ექსპოცენტურ ზრდას აჩვენებს, სულაც არ ნიშნავს, რომ ის მუდმივად ასეთ დინამიკას შეინარჩუნებს. ამაზე 2014 წელს „The Economist“-იც წერდა:

ჩვენთვის ცნობილი ისტორიის განმავლობაში, დედამიწაზე კაცობრიობა უკონკურენტოდ მეფობდა და დომინანტი ჯიში იყო. შესაძლებელია კი, რომ ეს მალე შეიცვალოს? ინდუარები კი გამოიყურებიან უწყინარად, მაგრამ ბოლო დროს ზომაში იზრდებიან: 1929 წელს ისინი საშუალოდ 6 კილოგრამს იწონიდნენ, ახლა კი – 13 კილოგრამს. სოლიდურ სამეცნიერო კვლევებზე დაყრდნობით, რომლებიც ამტკიცებენ, რომ ეს ტენდენცია მხოლოდ გაძლიერდება, „The Economist“-მა გააკეთა პროგნოზი, რომ სულ რაღაც 150 წელიწადში ინდაურები ადამიანების ზომას მიაღწევენ. უახლოეს 600 წელიწადში ინდაურები პლანეტაზე ყველაზეი დიდ არსებებად გადაიქცევიან. მეცნიერები ამტკიცებენ, რომ ინდაურების შესაშური ზრდა მათი მოყვანის სფეროში დანერგილი ინოვაციებითაა განპირობებული – მაგალითად, არჩევითი გამრავლების სისტემის და ხელოვნური განაყოფიერების გამოყენებით. მათი ზრდის ხელოვნური ბუნება და ის ფაქტი, რომ მათმა უმრავლესობამ ფრენის შესაძლებლობა დაკარგა გვარწმუნებს, თითქოს ჯერ ყველაფერი დაკარგული არაა. მაგრამ, იმის გათვალისწინებით, რომ მხოლოდ ამერიკაში 250 მილიონი ინდაური ჭამს და ბრწყინვალედ ცხოვრობს, ნამდვილად გვაქვს ნერვიულობის მიზეზები. წლევანდელ მადლიერების დღეზე ღირსეული სამოქმედო მიზეზი გვაქვს: შევჭამოთ ისინი, სანამ მათ ჩვენ არ შეგვჭამეს.

განსხვავება მონსტრ ინდაურებსა და ხელოვნური ინტელექტის აღზევებას შორის არც თუ ისე დიდია, თუკი არ გავითვალისწინებთ იმ ფაქტს, რომ ზრდის წრფე სავსებით შესაძლებელია სიგმოიდური იყოს – ზრდის თავდაპირველი სტადია უახლოვდებოს ექსპონენტურს, მის შემდეგ დადგეს სტაბილიზაცია, ზრდა შენელდეს, დადგეს მომწიფების პერიოდი და საბოლოო ჯამში, ზრდა შეჩერდეს. მაგრამ, ვეჭვობ, რომ სიგმოიდური წრფეების კონცეფცია სინგულარისტებთან ერესად ითვლება.

სინგულარიზმი თავგზის აბნევას იწვევს. ეს არის მდიდართა სამყაროს წარმომადგენელთა რწმენა, გავრცელებული განვითარებული ქვეყნების ხალხში, რომლებმაც, როგორც ჩანს, დაივიწყეს ნამდვილ ბოროტებაზე, რომელიც კაცობრიობასა და პლანეტას ემუქრება. საკმარისია ერთი მაგალითიც: თითქმის 700 მილიონ ადამიანს არ აქვს წვდომა სუფთა წყალთან. ეს კაცობრიობის არსებობისთვის კოლოსალური საფრთხეა. და თუკი გგონიათ, რომ ექსპერტთა პროგნოზი ინფორმაციის სანდო წყაროა, მეორეჯერ დაფიქრდით. არსებობს ტექნოლოგიების სფეროს ექპსერტების არაერთი არასწორი პროგნოზი (წაიკითხეთ დეივიდ პოგის ჰიპოთეზები და საიტ „Cracked.com“-ის პროგნოზები). 2004 წელს ბილ გეიტსმა განაცხადა: „ორ წელიწადში, სპამის პრობლემას მოვაგვარებთ“, ხოლო 2011 წელს ჰოკინგმა თქვა, რომ „ფილოსოფია მკვდარია“ (აბა, მაშინ ახლა რაღას კითხულობთ?).

წინასწარმეტყველება, რომელიც ყველაზე მეტად მომწონს, „Ethernet“-ისა და კომპანია „3Com“-ის დამფუძნებელს, რობერტ მეთკალფომს ეკუთვნის. 1995 წელს მანდ დადო პირობა, რომ „საკუთარ სიტყვებს შეჭამდა“, თუკი აღმოჩნდებოდა, რომ მისი პროგნოზი, თითქოს 1996 წელს ინტერნეტი არსებობას შეწყვეტდა, მცდარი იქნებოდა. როგორც სიტყვის კაცმა, 1997 წელს მან საზოგადოების თვალწინ თავისი სტატია სამზარეულოს კომბაინში ჩადო და დალია. ნეტავი, სინგულარისტებიც ასევე გაბედულები და თანმიმდევრულები ყოფილიყვნენ, როგორც ის.

ერთობ გაღიზიანებულნი ადამიანებით, რომლებიც ეთაყვანებიან ცრუ ციფრულ ღმერთებს და შეუძლებელ წინასწარმეტყველებებს ქადაგებენ, ანუ, ურწმუნოები, იგივე ალთეისტები, საკუთარ თავს მიზანს უსახავენ: ერთხელ და სამუდამოდ დაამტკიცონ, რომ ნებისმიერი რწმენა ხელოვნური ინტელექტის მომავალში მცდარია. ხელოვნური ინტელექტი მხოლოდ და მხოლოდ კომპიუტერია, კომპიუტერი მხოლოდ ტიურინგის მანქანაა, ხოლო ტიურინგის მანქანა არის არა უმეტეს, ვიდრე სინტაქსური ძრავა, ხოლო სინტაქსურ ძრავას არ შეუძლია იფიქროს, არ შეუძლია იცოდეს და ვერ ექნება გონება. ესაა და ეს.

ზუსტად ამიტომ, დღესაც კი არსებობს არაერთი ამოცანა, რომელსაც კომპიუტერი თავს ვერ გაართმევს. ეს რიგი ავტორების პუბლიკაციის სახელწოდებადაც იქცა – აირა უილსონის (1970), ჰიუბერტ დრეიფუსის (1972, 1979, 1992), დეივიდ ჰარელის (2000), ჯონ სირლის (2014) – თუმცა, იმ ამოცანების ჩამონათვალი, რომელთა შესრულებაც კომპიუტერს არ ძალუძს, მუდმივად იცვლება. ზუსტად ამიტომ, კომპიუტერები ვერ ახერხებენ სემანტიკის აღქმას (ნებისმიერი ენის, ჩინურის ჩათვლით, მიუხედავად გუგლ-თარჯიმანის მცდელობებისა). ეს ამტკიცებს, რომ ხელოვნური ინტელექტის პრობლემის განხილვაც, არათუ მასზე ნერვიულობა არ ღირს. არ არსებობს ნამდვილი ხელოვნური ინტელექტი და აქედან გამომდინარე, არ არსებობს მის ფუნქციონირებასთან დაკავშირებული პრობლემები. უბრალოდ დაწყნარდით და დატკბით ამ საოცარი გაჯეტების გამოყენებით.

ალთეისტების რწმენა ზუსტად ისეთივე მცდარია, როგორც სინგულარისტების. ორივე ეკლესიას ბევრი მიმდევარი ჰყავს კალიფორნიაში, სადაც გვერდიგვერდ იღებენ სამეცნიერო-ფანტასტიკურ ფილმებს, მუშაობენ ბრწყინვალე კვლევითი ინსტიტუტები (მაგალითად, ბერკლი) და უმთავრესი ციფრული კომპანიები. შესაძლოა, ეს დამთხვევა შემთხვევითი არ იყოს. იქ, სადაც საქმე დიდ ფულთან გვაქვს, ხალხის დაშინება მარტივი ხდება. მაგალითად, „Google“ ისეთი ტეპმებით იძენს ხელოვნური ინტელექტის შექმნაზე სპეციალიზირებულ კომპანიებს, თითქოს ხვალინდელი დღე არც დადგება (გაფრთხილება: მე ვარ „Google“-ის ექპსერტთა საბჭოს წევრი „დავიწყების უფლებით“), ამიტომ, გამოდის, რომ „Google“-მა უნდა იცოდეს გონიერი კომპიუტერის შესახებ რამე ისეთი, რაც ჩვენ, ჩვეულებრივმა მოკვდავებმა, არ ვიცით? ერიკ შმიდტმა, „Google“-ის აღმასრულებელმა დირექტორმა, ასეთ ჭორებს, როგორც ცეცხლს ნავთი, თავისი გამოსვლით დაასხა, როცა 2013 წელს ასპენის ინსტიტუტში განაცხადა: „ბევრი ადამიანი, დაკავებული ხელოვნური ინტელექტის შექმნით, დარწმუნებულია, რომ ჩვენ მოვახერხებთ [ისეთი კომპიუტერის შექმნას, რომელიც ტიურინგის ტესტს გაივლის] უახლოეს 5 წელიწადში“.

ტიურინგის ტესტის წყალობით, შესაძლებელია გავიგოთ, რამდენად ვითარდება ხელოვნური ინტელექტი. სხვადასხვა ოთახებში დისლოცირებულ სუბიექტებს კითხვებს უსვამთ; ერთი მათგანი კომპიუტერია, ხოლო მეორე – ადამიანი. თუკი ერთის მეორისგან გარჩევას ვერ მოახერხებთ, ესე იგი, კომპიუტერმა ტესტი გაიარა. ეს მთლად კარგად გათვლილი ტესტი არაა. წარმოვიდგინოთ მართვის მოწმობის მიღბის გამოცდა: თუ ალისა გამოცდას ვერ ჩააბარებს, ის არაა ფრთხილი მძღოლი; მაგრამ თუ მაინც ჩააბარებს, იგი მაინც შეიძლება არ იყოს ფრთხილი მძღოლი. ტიურინგის ტესტი ამ ტიპის ინტელექტისთვის აუცილებელ, თუმცა არასაკმარის მოცემულობას გვთავაზობს. ეს მართლაც დაბალი ზღვარია, მაგრამ მიუხედავად ამისა, ვერც ერთმა ხელოვნურმა ინტელექტმა ის მაინც ვერ დაძლია. რაც უფრო მნიშვნელოვანია, ყველა პროგრამა მარცხს განიცდის ისე, რომ იყენებს ხრიკებს, რომლებიც ჯერ კიდევ 1960-იან წლებში შეიმუშავეს. მოდით, სანაძლეო დავდოთ. მე ჩემთვის საზიზღარი ბადრიჯნის მთელ თეფშს შევჭამ, თუ რომელიმე პროგრამული უზრუნველყოფა ტიურინგის ტესტს გაივლის და 2018 წლის 16 ივლისამდე ლებნერის პრემიის ოქროს პრიზიორი გახდება. გარწმუნებთ, არ წავაგებ.

ცდებიან როგორც სინგულარისტები, ასევე ალთეისტები. როგორც 1950 წლის სტატიაში ალან ტიურინგმა დაწერა, სადაც მკითხველს თავისი ტესტიც გააცნო, კითხვა „შეუძლია თუ არა მანქანას აზროვნება?“ არის „ძალიან უაზრო მისი განხილვისთვისაც კი“ (ეს კითხვა გრავირებულია ლებნერის პრემიის მედალზე – ირონია და შეიძლება, განგება). ეს გამოთქმა სწორია მიუხედავად იმისა, რომელ ბანაკში ხართ. და მაინც, ორივე განაგრძობს უაზრო კამათს, უარს ამბობს გონების ხმის გაგონებაზე და ყველანაირად ცდილობს მის ჩახშობას.

ჭეშმარიტი ხელოვნური ინტელექტი განა შეუძლებელია ლოგიკური თვალსაზრისით, მაგრამ ის სრულიად არადამაჯერებელია. ჩვენ არ გვაქვს ოდნავი წარმოდგენაც იმის შესახებ, როგორ შეიძლება მისი შექმნა დავიწყოთ და თანაც ისიც კი არ ვიცით, ჩვენი საკუთარი ტვინი და გონება როგორ მუშაობს. ეს ნიშნავს, რომ არაა საჭირო, თავი ვიტკიოთ ზეგონების შესაძლო გამოჩენაზე ნერვიულობით. რაც რეალურადაა მნიშვნელოვანი, ის ფაქტია, რომ მუდმივად განვითარებადი ტექნოლოგიების მონაწილეობა ჩვენს ცხოვრებაში უდიდეს გავლენა აქვს იმაზე, თუ როგორ აღვიქვავთ საკუთარ თავს, სამყაროს, მათთან ჩვენს ურთიერთობას. საქმე განა იმაშია, რომ ჩვენს მანქანებს გონება ან ჭკუა აქვთ, რომ შეუძლიათ აკეთონ ის, რაც ჩვენს ძალებს აღემატება. ეს ყველაფერი არასწორია. არაერთი კარგად ცნობილი შედეგი ნათლად გვაჩვენებს, რომ არსებობს გამოთვლითი შეზღუდვები, ეგრეთ წოდებული ამოუხსნელი ამოცანები, რომელთათვისაც (ამის დამტკიცებაცაა შესაძლებელი) შეუძლებელია შეიქმნას ალგორიტმი, რომელიც ყველა შემთხვევაში სწორ პასუხამდე (კი/არა) მიგვიყვანს.

მაგალითად, ვიცით, რომ ჩვენი გამოთვლითი მანქანები პასუხობენ კარი-ჰოვარდის შესაბამისობას; ეს ნიშნავს, რომ ერთ მხრივ მტკიცებულებების სისტემები ლოგიკაში და მეორე მხრივ, გამოთვლითი მოდელები ფაქტობრივად ობიექტთა ერთი და იგივე ნაირსახეობაა და ამიტომ, ნებისმიერი ლოგიკური შეზღუდვა კომპიუტერებსაც მიესადაგებათ. არაერთ მანქანას შეუძლია განსაცვიფრებელი საქმის შესრულება – მაგალითად, ჭადრაკის, შაშკის, გოს ან ტელევიქტორინა „Jeopardy“-ს თამაში, ჩვენზე ბევრად უკეთესად. და მაინც, ისინი ტიურინგის მანქანის ვერსიები არიან – აბსტრაქტული მოდელის, რომელიც ზღუდავს იმას, თუ რა შეუძლია კომპიუტერს თავიანთი მათემატიკური ლოგიკის გამოყენებით.

კვანტური კომპიუტერები აგრეთვე შეზღუდულია გამოთვლის ლიმიტით (ეგრეთ წოდებული გამოთვლადი ფუნქციები). გონებით დაჯილდოებული ვერც ერთი არსება ვერ აღმოცენდება ტიურინგის მანქანიდან. საქმე იმაშია, რომ ჩვენი სმარტ-ტექნოლოგიები, ხელმისაწვდომი მონაცემების უდიდესი მოცულობისა და საკმაოდ კარგი პროგრამირების წყალობით სულ უფრო და უფრო ხშირად ზოგიერთ ამოცანას ჩვენზე კარგად ართმევენ თავს და სხვათა შორის, ჩვენივე ქცევას ჩვენზე კარგად წინასწარმეტყველებენ. ამიტომაც, არ ვართ ერთადერთნი, ვისაც რამის წარმატებით კეთება შეუძლია.

ზუსტად ამას ვუწოდე ჩვენ მიერ საკუთარი თავის აღქმაში მეოთხე რევოლუცია. ჩვენ არ ვართ სამყაროს (კოპერნიკი) ან ბიოლოგიური სამეფოს (ჩარლზ დარვინი) ცენტრი, ან რაციონალურობის ნამოქმედი (ზიგმუნდ ფროიდი). ტიურინგის შემდეგ, აღარ ვართ არც ინფორმაციული გარემოს ცენტრი – ახლა მას ციფრულ ტექნოლოგიებთან ვიყოფთ. ეს მატერიალური კულტურის ჩვეულებრივი ობიექტებია, რომლებიც ამოცანებს თავს ჩვენზე სულ უფრო და უფრო კარგად ართმევენ, მაგრამ მათი ჭკუა ტოსტერისას არ აღემატება. მათი შესაძლებლობები შოკში გვაგდებს და გვაიძულებს, ეჭვქვეშ დავაყენოთ ადამიანთა მოდგმის განსაკუთრებულობა და მისი გამორჩეული როლი სამყაროში, რომელიც ახლაც უნიკალური რჩება. ჩვენ გვეგონა, რომ ჭკვიანები ვართ, რადგანაც ჭადრაკის თამაში შეგვიძლია, ახლა კი ტელეფონები ერთიორად ჯობნიან დიდოსტატებს. გვეგონა, რომ თავისუფლები ვართ, რადგანაც შეგვიძლია ვიყიდოთ, რაც კი გაგვიხარდება. ახლა ჩვენი ნაყიდი ნივთების წინასწარმეტყველება პატარა მოწყობილობებს შეუძლია.

ჩვენი ტექნოლოგიების წარმატება დიდ ვალშია იმ ფაქტთან, რომ სანამ ზეგონების არსებობაზე ვმსჯელობდით, უფრო და უფრო მოვახვიეთ მსოფლიოს სხვადასხვა მოწყობილობების, სენსორების, აპლიკაციებისა და მონაცემების ბადე იმ დონემდე, რომ ახლა ეს მსოფლიო ხელოვნური ინტელექტისთვის friendly გარემოს წარმოადგენს. ასეთ გარემოში ტექნოლოგიები ჩვენს შეცვლას შეძლებენ ყველანაირი გაგების, სულიერი მდგომარეობის, მიზნის, ინტერპრეტაციის, ემოციური მდგომარეობის, გონებრივი შესაძლებლობების, სინდისის, თვითშეგნების თუ აზროვნების მოქნილობის გარეშე. თვითმფრინავის დაშვებისას, სახლიდან სამსახურამდე უმოკლესი გზის ძებნისას ან ახალი მაცივრის შეძენისას საუკეთესო ფასის გაგებაში გონებას მეხსიერება ჯობნის.

ციფრული ტექნოლოგიები ჩვენზე უკეთ სამუშას სულ უფრო და უფრო მეტ სფეროში ასრულებენ, მონაცემთა ზრდად მოცულობას ამუშავებენ, ხოლო შემდგომი მოქმედებისთვის დასაყრდენივით იყენებენ და თანაც საკუთარ მწარმოებლურობას ზრდიან საკუთარი შედეგების ანალიზით. „Google DeepMind“-ის მიერ შექმნილმა პროგრამა „AlphaGo“-მ მსოფლიოში გოს საუკეთესო მოთამაშე დაამარცხა იმიტომ, რომ მის ხელში იყო მონაცემთა ბაზა 30 მილიონი სვლით და მას შეეძლოს საკუთარ თავთანაც ეთამაშა და „ესწავლა“, როგორ გაეუმჯობესებინა სტრატეგია. ეს წააგავს სისტემას, როცა ორი დანა ერთმანეთს ლესავს. რა განსხვავებაა? ზუსტად ისეთი, როგორიც ჭურჭლის გარეცხვა ადამიანის მიერ და როგორც ჭურჭლის სარეცხი მანქანის მიერ შესრულებული იგივე ოპერაცია. რა არის დასკვნა? რომ ნებისმიერი წინასწარმეტყველება „ხელოვნური ინტელექტის აპოკალიფსზე“ შეგვიძლია სერიოზულად არ მივიღოთ. როგორიც არ უნდა იყოს მომავალი, პრობლემა ვიქნებით ჩვენ და არა ჩვენი ტექნოლოგიები. ამიტომაც, აჯობებს ნამდვილ საფრთხეებს მივხედოთ. დასკვნის სახით, ნება მომეცით ხუთი ასეთი საფრთხე წარმოგიდგინოთ – ყველა თანაბრად იმსახურებს ყურადღებას.

უნდა ვიზრუნოთ იმაზე, რომ ხელოვნური ინტელექტი გარემოს წაადგეს. გვჭირდება ყველაზე მაღალი ტექნოლოგიები, რომელთა შექმნაც კი შეიძლება, რათა შევებრძოლოთ რეალურ პრობლემებს, რომლებიც აწუხებენ კაცობრიობასა და ჩვენს პლანეტას – იქნება ეს დანაშაული, ტერორიზმი, ომი, შიმშილობა, სიღარიბე, გაუნათლებლობა, უთანასწორობა თუ ცხოვრების შემზარავად დაბალი დონე.

უნდა შევქმნათ ადამიანისთვის კომფორტული ხელოვნური ინტელექტი, რომელიც ადამიანებს განიხილავს როგორც მიზანს და არა საშუალებას.

ხელოვნური ინტელექტის სიბრიყვე ყოველთვის ადამიანთა გონების სასარგებლოდ უნდა მუშაობდეს. მილიონობით სამუშაო ადგილი შეიძლება შემცირდეს, ანდა სულაც გაქრეს ან გაჩნდეს: ამით მოტანილი სარგებელი ყველას უნდა ხვდეს წილად, ხოლო ზიანი საზოგადოებამ გადაიტანოს.

აუცილებელია, ხელოვნური ინტელექტის პროგნოზისტული უნარები ჩვენი თავისუფლებისა და დამოუკიდებლობის საკეთილდღეოდ გამოვიყენოთ. პროდუქციის მარკეტინგმა, გავლენამ ქცევაზე, ადამიანებისთვის თავის მობეზრებამ ან დანაშაულთან თუ ტერორიზმთან ბრძოლამ არასდროს არ უნდა შეარყიოს ადამიანური ღირსება.

და ბოლოს, ხელოვნური ინტელექტი ადამიანურობის სადარაჯოზე უნდა იდგოს. არსებობს იმის მაღალი რისკი, რომ ტექნოლოგიებს პლანეტისა და კაცობრიობის უმრავლესობისთვის ბოროტად გამოვიყენებთ. როგორც უინსტონ ჩერჩილმა თქვა, „ჩვენ ვძერწავთ საკუთარ ნახელავს, შემდეგ კი ჩვენივე ნახელავი გვძერწავს ჩვენს“. ეს აგრეთვე მიესადაგება ინფორმაციულ გარემოსა და ტექნოლოგიებს.

სინგულარისტები და ალთეისტები კვლავ გააგრძელებენ ჭეშმარიტი ხელოვნური ინტელექტის შესაძლებლობის და პირიქით კრიტიკას. მომთმენნი უნდა ვიყოთ, მაგრამ ისიც უნდა ვიცოდეთ, რომ არ გვაქვს ვალდებულება, კამათში შევიდეთ.  ვერგილიუსი დანტეს „ღვთაებრივი კომედიდან“ ასეთ რჩევას გვაძლევს: „მაგათთან ლაპარაკი არ ღირს: შეხედე და გაიარე!“. იმიტომ, რომ სამყაროს კარგი ფილოსოფია, ჩვენ კი უფრო სერიოზული პრობლემების მოგვარება გვჭირდება.

სტატიის ორიგინალი: Aeon – Should we be afraid of AI?

თარგმანის რედაქტორი: ნიკა ბარამიძე

დააკომენტარეთ ფეისბუქიდან

მსგავსი სტატიები

Back to top button