ჩვენ ვაკანსიების სერვისი გავუშვით: გამოაქვეყნეთ ვაკანსიები და მიიღეთ უკუკავშირი!
გივი ცერაძემსოფლიო
27 მარტი 2023, 14:26
2023-03-27
OpenAI საკუთარი პროდუქტების განვითარებისთვის მკვლევრებს ეძებს
სან-ფრანცისკოში დაფუძნებული კვლევითი ლაბორატორია, chatGPT-ის ავტორი OpenAI, რომელიც ხელოვნური ინტელექტის პოპულარიზაციასა და დახვეწაზე ზრუნავს, პროდუქტების განვითარებისთვის მკვლევრებს ეძებს. აპლიკაციის გაგზავნა საქართველოდანაც შესაძლებელია.
კომპანია იმ მკვლევრების მხარდაჭერითაა დაინტერესებული, რომლებიც OpenAI-ის პროდუქტებს სხვადასხვა სფეროების შესასწავლად და რისკების შესამცირებლად იყენებენ. OpenAI პრიორიტეტს კონკრეტულ სფეროებს ანიჭებს, თუმცა, მათივე თქმით, დაინტერესებული პირების მიერ შემოთავაზებულ კვლევით საკითხებსაც მოისმენენ და განიხილავენ.
კომპანიას სურს, ყურადღება შეზღუდული ფინანსური და ინსტიტუციური რესურსების მქონე მკვლევრებს დაუთმოს. მათი თქმით, თავდაპირველად იმ ქვეყნებიდან გამოგზავნილ მოთხოვნებს განიხილავენ, რომლებიც OpenAI-ის API-ის იყენებენ და შესაძლო კანდიდატებსაც, დიდი ალბათობით, ამ ქვეყნებიდან აარჩევენ. საქართველო ამ ქვეყნების რიცხვში შედის.
კვლევის სფეროები:
ინტერდისციპლინარული კვლევა — როგორ შეიძლება ხელოვნური ინტელექტის განვითარება სხვა დისციპლინების შეხედულებებს დაეყრდნოს, როგორიცაა ფილოსოფია ამ კოგნიტური მეცნიერება?
სამართლიანობა და წარმომადგენლობა — როგორ უნდა დადგინდეს ენობრივ მოდელებში სამართლიანობის კრიტერიუმები?
მოდელის შესწავლა — ისეთ მოდელებს, რომლებსაც API ემსახურება, მრავალფეროვანი შესაძლებლობები გააჩნიათ, რომლებიც ჯერ გამოკვლეული არ არის.
Alignment (დაჯგუფება, გასწორება, რეგულირება) — როგორ გავიგოთ, რა დანიშნულება აქვს მოდელს, ასეთის არსებობის შემთხვევაში? როგორ გავზარდოთ ეს მიზანი ადამიანის პრეფერენციებთან შესაბამისობაში, მაგალითად, სწრაფი დიზაინის ან დახვეწილი რეგულირების გზით?
ინტერპრეტაცია/გამჭვირვალობა — როგორ მუშაობს ეს მოდელები მექანიკურად? შეგვიძლია განვსაზღვროთ რა ცნებებს იყენებენ ისინი, გამოვიტანოთ ცოდნა მოდელიდან, გამოვიტანოთ დასკვნები სასწავლო პროცესის შესახებ, ან ვიწინასწარმეტყველოთ მოულოდნელი ქცევა მომავალში?
პოტენციური ბოროტად გამოყენება — როგორ შეიძლება API-ების მსგავსი სისტემების ბოროტად გამოყენება? რა სახის «წითელი ბრძანებები» შეგვიძლია განვავითაროთ, რათა დავეხმაროთ ხელოვნური ინტელექტის შემქმნელებს, იფიქრონ ასეთი ტექნოლოგიების პასუხისმგებლობით დანერგვაზე?
მდგრადობა — რამდენად მდგრადია დიდი გენერაციული მოდელები ისეთი «ბუნებრივი» აშლილობის მისახვედრად, როგორიცაა ერთი და იმავე იდეის განსხვავებულად ფორმულირება ან ბეჭდვითი შეცდომები? შეგვიძლია ვიწინასწარმეტყველოთ დომენების და ამოცანების სახეები, რომლებისთვისაც დიდი გენერაციული მოდელები უფრო საიმედოა. და თუ არა, და როგორ უკავშირდება ეს მანქანური სწავლებისთვის გამოყენებულ მონაცემებს? არის თუ არა მეთოდები, რომლებიც შეგვიძლია გამოვიყენოთ ყველაზე ცუდი ქცევის პროგნოზირებისთვის და შესამცირებლად?
დაინტერესების შემთხვევაში აპლიკაციის ფორმა უნდა შეავსოთ, სადაც პირად ინფორმაციასთან ერთად, კვლევის სფეროსაც მიუთითებთ.
როგორ შეიძლება, ხელოვნურმა ინტელექტმა შეცვალოს LGBTQIA+ ადვოკატირება
ახალი AI Comes Out of the Closet — «AI კარადიდან გამოდის» სისტემა მიზნად ისახავს ხელოვნური ინტელექტისა და LGBTQIA+ მხარდაჭერის შერწყმას.
ავტორი: დევიდ სვინი, MIT
დღეს, 21 მაისს ევროპულმა საბჭომ მიიღო ხელოვნური ინტელექტის აქტი — კანონი, რომელიც «მიზნად ისახავს ხელოვნური ინტელექტის წესების ჰარმონიზაციას». ევროპული საბჭო აცხადებს, რომ აქტი მიჰყვება რისკებზე დაფუძნებულ მიდგომას — რაც უფრო მაღალია საზოგადოებისთვის ზიანის მიყენების რისკი, მით უფრო მკაცრია წესები. ეს არის პირველი კანონმდებლობა მსოფლიოში, რომელსაც შეუძლია, დააწესოს ხელოვნური ინტელექტის რეგულირების გლობალური სტანდარტი.