მსოფლიოტექნოლოგიები

ხელოვნური ინტელექტის „ნათლია“ შიშობს, რომ ჩეთბოტები უახლოეს მომავალში ადამიანზე ჭკვიანები იქნებიან და ნანობს თავის საქმიანობას

ხელოვნური ინტელექტის ნათლიად წოდებული ჯეფრი ჰინტონი აცხადებს, რომ ხელოვნური ინტელექტის ჩეთბოტები უახლოეს მომავალში ადამიანზე ჭკვიანები იქნებიან, რაც მზარდი საფრთხეა. 75 წლის ჯეფრი ჰინტონმა ტექნოლოგიური კომპანია „გუგლიდან“ წასვლის შესახებ განაცხადა და თქვა, რომ ახლა ნანობს თავის საქმიანობას.

„რამდენადაც შემიძლია, გითხრათ, ამჟამად ისინი ჩვენზე უფრო ჭკვიანები არ არიან, მაგრამ ვფიქრობ, მალე იქნებიან“, – განაცხადა ჯეფრი ჰინტონმა „ბიბისისთან“ ინტერვიუში.

ჰინტონმა ასევე განაცხადა, რომ მისმა ასაკმა ითამაშა როლი გადაწყვეტილებაში, დაეტოვებინა კომპანია. ჯეფრი ჰინტონის კვლევამ ღრმა სწავლისა და ნერვული ქსელების შესახებ გზა გაუხსნა ხელოვნური ინტელექტის თანამედროვე სისტემებს, როგორიცაა „ჩეთ ჯიფითი“.  ბრიტანელ-კანადელმა ფსიქოლოგმა და კომპიუტერული მეცნიერების სპეციალისტმა „ბიბისის“ განუცხადა, რომ ჩეთბოტმა მალე შეიძლება, გადალახოს ინფორმაციის დონე, რომელსაც ადამიანის ტვინი ფლობს.

ამასთან, „ნიუ-იორკ ტაიმსის“ სტატიაში ჯეფრი ჰინტონმა ახსენა „ცუდი მოთამაშეები, რომლებიც შეეცდებიან ხელოვნური ინტელექტის გამოყენებას „ცუდი მიზნებისთვის““.  „ბიბისიმ“ ამ განცხადების  დაზუსტება სთხოვა, ჯეფრი ჰინტონმა უპასუხა:

„ეს არის ერთგვარი ყველაზე ცუდი, ერთგვარი კოშმარული სცენარი. თქვენ წარმოიდგინეთ, მაგალითად, ზოგიერთმა ცუდმა მსახიობმა, როგორიცაა პუტინი, გადაწყვიტა, რობოტებს მისცეს შესაძლებლობა, შექმნან საკუთარი ქვემიზნები. ამან შესაძლოა შექმნას ქვემიზნები, როგორიცაა „მეტი ძალაუფლება მჭირდება“. მე მივედი დასკვნამდე, რომ ინტელექტის სახეობა, რომელსაც ჩვენ ვავითარებთ, ძალიან განსხვავდება ჩვენი ინტელექტისგან. ჩვენ ბიოლოგიური სისტემები ვართ და ეს ციფრული სისტემებია. დიდი განსხვავება ის არის, რომ ციფრული სისტემებით თქვენ გაქვთ ერთი და იმავე წონების ნაკრების მრავალი ასლი, მსოფლიოს იგივე მოდელი. ყველა ამ ასლს შეუძლია, ცალკე ისწავლოს და მყისიერად გაუზიაროს ცოდნა. თითქოს გყავდეს 10 000 ადამიანი და როცა ერთმა ადამიანმა რაღაც ისწავლა, ყველამ ავტომატურად იცოდა. და, აი, როგორ შეუძლიათ ამ ჩეთბოტებს იმაზე მეტის ცოდნა, ვიდრე ნებისმიერ ადამიანს“.

შეგახსენებთ, რომ მსგავსი ტიპის განცხადება ცოტა ხნის წინათ ილონ მასკმაც გააკეთა. ამერიკელი მილიარდერი ილონ მასკი და ექსპერტთა ნაწილი გამოდიან მოწოდებით, შეჩერდეს მძლავრი ხელოვნური ინტელექტის სისტემების განვითარება, რათა საკმარისი დრო გვქონდეს მათ უსაფრთხოებაში დასარწმუნებლად.

Microsoft-ის მიერ მხარდაჭერილი კომპანია OpenAI-ს მიერ GPT-4-ის გამოშვების საპასუხოდ მარტის ბოლოს გამოქვეყნდა ღია წერილი, რომელსაც ხელს ათასზე მეტი ადამიანი აწერს, მათ შორის, მასკი და Apple-ის თანადამფუძნებელი სტივ უოზნიაკიც.

ხელოვნური ინტელექტის კანადელმა პიონერმა, იოშუა ბენგიომ, რომელიც ასევე წერილის ხელმომწერია, მონრეალში გამართულ ვირტუალურ კონფერენციაზე განაცხადა, რომ „საზოგადოება მზად არ არის“ ასეთი მძლავრი ხელსაწყოსთვის და შეიძლება, ის არასწორად გამოიყენონ.

„…მოვუწოდებთ ხელოვნური ინტელექტის ლაბორატორიებს, დაუყოვნებლივ, სულ მცირე ექვსი თვით შეაჩერონ GPT-4-ზე უფრო მძლავრი ხელოვნური ინტელექტის სისტემებზე მუშაობა“, — წერენ წერილის ავტორები.

ისინი მოუწოდებენ მთავრობებს, რომ მორატორიუმი შემოიღონ, თუკი კომპანიები მათ წინადადებას არ დათანხმდებიან.

ექვსი თვე უნდა გამოიყენონ უსაფრთხოების პროტოკოლების, ხელოვნური ინტელექტის მართვის სისტემების შემუშავებაში და კვლევების იმაზე ფოკუსირებაში, რომ უზრუნველვყოთ ხელოვნური ინტელექტის სისტემების მეტი სიზუსტე, უსაფრთხოება, სანდოობა და ლოიალურობა.

1tv.ge-ს მიხედვით

კომენტარები

Tags

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button
გაზიარება
Close