თეთრმა სახლმა ტექნოლოგიურ ბოსებს საზოგადოების AI-ის რისკებისგან დაცვა მოსთხოვა
ტექნოლოგიური ხელმძღვანელები 4 მაისს თეთრ სახლში დაიბარეს და უთხრეს, რომ მათ საზოგადოება ხელოვნური ინტელექტის (AI) შესაძლო საფრთხისგან უნდა დაიცვან.
ტექნოლოგიური ხელმძღვანელები 4 მაისს თეთრ სახლში დაიბარეს და უთხრეს, რომ მათ საზოგადოება ხელოვნური ინტელექტის (AI) შესაძლო საფრთხისგან უნდა დაიცვან.
სუნდარ პიჩაის Google-დან, სატია ნადელას Microsoft-დან და სემ ალტმანს OpenAI-დან უთხრეს, რომ მათ მორალური ვალდებულება აკისრიათ, დაიცვან საზოგადოება.
თეთრმა სახლმა ცხადყო, რომ შესაძლოა ეტაპობრივად ამ სექტორის რეგულირება მოხდეს.
ახლახან გამოშვებულმა AI პროდუქტებმა, როგორიცაა ChatGPT და Bard, საზოგადოების გონება და ფანტაზია დაიპყრო.
ამ ხელსაწყოების პოპულარობის სწრაფმა ზრდამ საზოგადოებაში ხელოვნური ინტელექტის როლის შესახებ დებატები განაახლა. ახალი ტექნოლოგიის პოტენციური რისკები და საფრთხეები ბევრს აშინებს.
4 მაისს თეთრ სახლში შეკრებილ ტექნოლოგიურ ბოსებს უთხრეს, რომ მათ კომპანიებს პროდუქციის უსაფრთხოებაზე ზრუნვა ევალებათ და გააფრთხილეს, რომ ადმინისტრაცია ხელოვნური ინტელექტის ჩარჩოებში მოსაქცევად ახალი რეგულაციების მიღებას აპირებს.
OpenAI-ის აღმასრულებელმა დირექტორმა, სემ ალტმანმა ჟურნალისტებს განუცხადა, რომ რეგულაციებს მიესალმება, თუ ეს ყველა კომპანიაზე თანაბარ გავლენას მოახდენს.
აშშ-ის ვიცე-პრეზიდენტმა, კამალა ჰარისმა შეხვედრის შემდეგ განაცხადა, რომ ახალმა ტექნოლოგიამ შეიძლება უსაფრთხოებას, კონფიდენციალურობასა და სამოქალაქო უფლებებს საფრთხე შეუქმნას, თუმცა მას სიცოცხლის გაუმჯობესების პოტენციალიც აქვს.
«კერძო სექტორს ეთიკური, მორალური და სამართლებრივი პასუხისმგებლობა აკისრია, რათა მათი პროდუქციის უსაფრთხოება უზრუნველყონ». — თქვა მან.
თეთრმა სახლმა შვიდი ახალი AI კვლევითი ლაბორატორიის ასაშენებლად სამეცნიერო ფონდიდან 140 მილიონი აშშ დოლარის ინვესტიცია გამოყო.
ამ კვირის დასაწყისში, ხელოვნური ინტელექტის «ნათლიამ», ჯეფრი ჰინტონმა Google დატოვა და თქვა, რომ ამ გადმოსახედიდან მუშაობას ნანობს.
მან BBC-ს განუცხადა, რომ ხელოვნური ინტელექტის ჩათბოტებისგან მოსალოდნელი საშიშროება ძალიან მაღალია.
მარტში, ილონ მასკისა და Apple-ის დამფუძნებლის, სტივ ვოზნიაკის მიერ ხელმოწერილი წერილი გავრცელდა, რომლითაც AI წვრთნის ექვსი თვით შეჩერაბას მოითხოვდნენ.
3 მაისს კი ფედერალური სავაჭრო კომისიის (FTC) ხელმძღვანელმა, ლინა ხანმა თავისი შეხედულება დააფიქსირა იმის შესახებ, თუ როგორ და რატომ სჭირდება ხელოვნურ ინტელექტს დარეგულირება.
არსებობს შეშფოთება იმის შესახებ, რომ ხელოვნური ინტელექტმა შეიძლება ადამიანების სამუშაო სწრაფად შეცვალოს. ასევე ჩათბოტები, როგორიცაა ChatGPT და Bard, შეიძლება არაზუსტი აღმოჩნდეს და დეზინფორმაციის გავრცელება გამოიწვიოს.
ასევე ფიქრობენ, რომ გენერაციულმა AI-მ შეიძლება საავტორო უფლებების კანონი დაარღვიოს. ხელოვნური ინტელექტის დამარებით, ხმის კლონირებამ შეიძლება თაღლითობა გააძლიეროს. AI-ით დამუშავებულ ვიდეოებს კი ყალბი, არაზუსტი ამბების გავრცელება შეუძლიათ.
თუმცა, ბილ გეითსი და ტექნოლოგიური სექტორის რამდენიმე მნიშვნელოვანი ფიგურა ხელოვნური ინტელექტის წვრთნის შეჩერებას არ ეთანხმება და ფიქრობენ, რომ მსგავსი ნაბიჯი არსებულ გამოწვევებს ვერ გადაჭრის.
გეითსი ამტკიცებს, რომ უკეთესი იქნება იმაზე ვფოკუსირდეთ, AI-ის განვითარება ჩვენს სასარგებლოდ როგორ გამოვიყენოთ.