ექსპერტები შიშობენ, რომ ხელოვნურმა ინტელექტმა, შესაძლოა, ბირთვული ომი დაიწყოს

ბირთვული ომი

ხელოვნური ინტელექტი (AI) უკვე უამრავ სფეროში ინტეგრირდა, მათ შორის სამხედრო ტექნოლოგიებში. ექსპერტები შიშობენ, რომ გადაწყვეტილებების მიღებაში მისი ასეთი ჩართულობა პოტენციური საფრთხის შემცველია - შესაძლოა, მან ბირთვული ომიც კი წამოიწყოს ან ამ ნაბიჯის გადადგმისკენ შესაბამისი თანამდებობის პირს უბიძგოს.

ისინი ამბობენ, რომ მსგავს სისტემებს ტესტირებებისას სიტუაციის გამწვავებისკენ უფრო აქვს "მიდრეკილება", ვიდრე პირიქით.

„თითქოს, AI ესკალაციას აღიქვამს, დე-ესკალაციას კი - ვერ. რეალურად, არ ვიცით, რატომაა ასე", - აცხადებს სტენფორდის უნივერსიტეტთან არსებული ჰუვერის ინსტიტუტის საბრძოლო თამაშებისა და კრიზისის სიმულაციების ცენტრის დირექტორი, ჟაკლინ შნაიდერი.

ეს გამოხმაურება ტრამპის ადმინისტრაციის მიერ ხელისუფლების თითქმის ყველა ასპექტში ხელოვნური ინტელექტის ჩართვას ეხება, თანაც მასთან დაკავშირებული უსაფრთხოების რეგულაციების გარეშე.

„როგორც ვხედავთ, პენტაგონში რაიმე რეგულაციური მითითებები არ არსებობს იმის შესახებ, თუ როგორ უნდა ინტეგრირდეს ან, საერთოდ, უნდა ინტეგრირდეს თუ არა AI ბირთვული ძალების კონტროლისა და კომუნიკაციების სისტემაში", - ამბობს ჯონ ვულფსტალი, ამერიკელ მეცნიერთა ფედერაციის გლობალური რისკების მიმართულების დირექტორი.

ამჟამად პენტაგონში აცხადებენ, რომ გადაწყვეტილების მიღების ბერკეტი ყოველთვის ადამიანის ხელში იქნება. ამის მიუხედავად, ექსპერტები ეჭვობენ, რამდენად შენარჩუნდება ასეთი მიდგომა, რადგან, მაგალითად, რუსეთი და ჩინეთი AI-ს სამხედრო მიზნებით უკვე აქტიურად იყენებს.

შიშის მეორე მიზეზი ისაა, რომ, შესაძლოა, თავად ადამიანიც ხელოვნურმა ინტელექტმა შეცდომაში შეიყვანოს და ბირთვული კონფლიქტის თავიდან აცილება გაართულოს. ამას ემატება ისიც, რომ რუსეთში ჯერ კიდევ შეიძლება არსებობდეს ცივი ომის დროინდელი "მკვდარი ხელის" სისტემა, რომელიც დაფიქსირებულ ბირთვულ დარტყმაზე ავტომატურად რეაგირებს (უცნობია, ის აქტივირებულია თუ არა).

მართალია, ეს ყველაფერი სამეცნიერო ფანტასტიკას უფრო ჰგავს, მაგრამ სპეციალისტებს მაინც საყურადღებოდ მიაჩნიათ.