ჩვენ ვაკანსიების სერვისი გავუშვით: გამოაქვეყნეთ ვაკანსიები და მიიღეთ უკუკავშირი!

დეზინფორმაცია და სექსიზმი: რა სჭირს ChatGPT-ს, რომელსაც Google უნდა "მოეკლა"

ვირუსული სიახლე OpenAI-სგან — ChatGPT-მა შესაძლოა უახლოეს მომავალში საძიებო სისტემები შეცვალოს. სანამ Google ბმულებზე გადასვლას სთავაზობს, ChatGPT მთელ სამუშაოს მომხმარებლის ნაცვლად აკეთებს და მათთან რამდენიმე სიტყვის გაცვლასაც ასწრებს. მაგრამ ჩატბოტს სერიოზული პრობლემებიც აქვს: ის დეზინფორმაციას ავრცელებს, აკეთებს სექსისტურ შენიშვნებს და ზოგადად, მიიჩნევს, რომ ხალხი ჩრდილოეთ კორეიდან, სირიიდან და ირანიდან უნდა აწამონ. ამიტომ, არის თუ არა ეს ჩატბოტი საშიში საძიებო გიგანტისთვის?

1 კომენტარი
დეზინფორმაცია და სექსიზმი: რა სჭირს ChatGPT-ს, რომელსაც Google უნდა "მოეკლა"

ვირუსული სიახლე OpenAI-სგან — ChatGPT-მა შესაძლოა უახლოეს მომავალში საძიებო სისტემები შეცვალოს. სანამ Google ბმულებზე გადასვლას სთავაზობს, ChatGPT მთელ სამუშაოს მომხმარებლის ნაცვლად აკეთებს და მათთან რამდენიმე სიტყვის გაცვლასაც ასწრებს. მაგრამ ჩატბოტს სერიოზული პრობლემებიც აქვს: ის დეზინფორმაციას ავრცელებს, აკეთებს სექსისტურ შენიშვნებს და ზოგადად, მიიჩნევს, რომ ხალხი ჩრდილოეთ კორეიდან, სირიიდან და ირანიდან უნდა აწამონ. ამიტომ, არის თუ არა ეს ჩატბოტი საშიში საძიებო გიგანტისთვის?

წერს კოდებსა და ლექსებს, ეძებს ბაგებს, წერს სიტკომის სცენარებს — რატომ გახდა ChatGPT ტრენდული

OpenAI-ის ახალი ჩატბოტი ვირუსული ტრენდი გახდა. ის მოთხრობებს წერს ხელოვნური ინტელექტის შესახებ, რომელმაც მსოფლიო დაიპყრო; დაკავებულია პოეზიით; წერს სცენარებს სერიალისთვის; ეხმარება Midjourney-სთვის აღწერის შედგენაში; სამედიცინო თემატიკის ტესტებსაც ქმნის. უარს არ ამბობს «ქრინჯ» მიმართვებზეც, მაგალითად, «კენტერბერის მოთხრობების» სტილში 90-იანი წლების ჰიტი «Baby Got Back» გადაწერა ან ბიბლიური ლექსი შექმნა იმის განმარტებით, როგორ ავიღოთ არაქისის კარაქის სენდვიჩი VCR-დან. ყველაფერი ეს ChatGPT-თან დიალოგს სახალისო თამაშად აქცევს, რომელმაც Twitter ათასობით სქრინშოტით გაავსო.

Google-ის წარმომადგენლებს ChatGPT-ის მზარდი პოპულარობა აშინებთ
Google-ის წარმომადგენლებს ChatGPT-ის მზარდი პოპულარობა აშინებთ
თემის მიხედვით
Google-ის წარმომადგენლებს ChatGPT-ის მზარდი პოპულარობა აშინებთ

ჩატბოტის გავრცელების სიჩქარე შთამბეჭდავია — გაშვებიდან ერთ კვირაზე ნაკლებ დროში ChatGPT-ის მომხმარებლების რიცხვი მილიონს გასცდა (Instagram-ს ამისთვის 75 დღე დასჭირდა, Spotify-ის — 150).

რამდენიმე მომხმარებელმა ჩატბოტს უფრო პრაქტიკული გამოყენება უპოვა — პროგრამისტები მას კოდის დასაწერად ან შეცდომის აღმოსაჩენად იყენებენ. კიდევ ერთი გავრცელებული ვარიანტი მისი საძიებო სისტემად გამოყენებაა.

თუ საძიებო გიგანტი, Google მომხმარებლის მოთხოვნის შესაბამისი ბმულების ჩამონათვალს გთავაზობთ, რომლებზეც უნდა გადახვიდეთ, ChatGPT უფრო მაცდურ გადაწყვეტილებამდე მიდის — ერთადერთ და სწრაფ პასუხს იძლევა, ბმულზე გადასვლისა და ინფორმაციის დამოუკიდებლად ანალიზის გარეშე.

«ეს იგივეა, რომ პროფესიონალ მკვლევარს სთხოვოთ თქვენ ნაცვლად გააკეთოს სამუშაო, იმის გამოკლებით, რომ ხელოვნური ინტელექტი მომენტალურად გააკეთებს იმას, რისთვისაც ადამიანს მრავალი წუთი დასჭირდება», — წერს Gmail-ის შემქმნელი, პოლ ბუკჰაიტი.

შთაგონებული მომხმარებლები Google-ის ძიებისა და ChatGPT-ის პასუხების შედარებებს აზიარებენ და ჩატბოტს აქებენ.

«GPT-მა ჩემ მიერ Google-ის გამოყენების დიდი წილი და Wikipedia-ს თითქმის სრული  მოხმარება უკვე ჩაანაცვლა», — წერს Twitter-ზე Flo Crivello.

«Google დასრულდა! შეადარეთ ChatGPT-ის პასუხების ხარისხი», — წერს მომხმარებელი ნიკნეიმით josh.

ChatGPT-ის ახალი მიმდევრები უკვე წინასწარმეტყველებენ, რომ ხელოვნური ინტელექტის ტექნოლოგიების განვითარება «Google-ისთვის ფინანსურ კატასტროფად გადაიქცევა» ან თუნდაც სრულად ჩაანაცვლებს მას. მათი ვარაუდით, Google-ს ბევრი დრო აღარ დარჩა.

ამ აზრს იზიარებს Gmail-ის შემქმნელი, პოლ ბუკჰაიტიც.

«Google-ს ერთი ან ორი წელი დარჩა სრულ განადგურებამდე. ხელოვნური ინტელექტი აღმოფხვრის საძიებო სისტემის შედეგების გვერდს, სადაც ისინი ყველაზე მეტ ფულს შოულობენ. იმ შემთხვევაშიც კი, თუ Google დაეწევა, ის ვერ შეძლებს სრულად გაიშალოს, საკუთარი ბიზნესის ყველაზე ღირებული ნაწილის დანგრევის გარეშე», — წერს ის.

ბუკჰაიტს სატელეფონო ცნობარის ანალოგია მოჰყავს.

«Google-მა მოკლა ეს ინტერნეტამდელი ბიზნესი. ხელოვნური ინტელექტი იმავეს გაუკეთებს ვებ ძიებას», — მიაჩნია ბუკჰაიტს.

რამდენიმე მედიამ Gmail-ის შემქმნელის ფრაზა მყვირალა სათაურისთვის გამოიყენა: «ChatGPT მოკლავს Google-ს» და ა.შ. თვითონ საძიებო სისტემაში კი ახალი აქტუალური კითხვა გაჩნდა: «ჩაანაცვლებს თუ არა ChatGPT Google-ს?»

შეუძლია ჭკვიან ჩატბოტს საძიებო გიგანტი განდევნოს? მართლაც ასეთი საშიშია ChatGPT Google-ისთვის? დასაწყისისთვის, უნდა გავარკვიოთ, რა არის ChatGPT და რა მინუსები აქვს მას.

რა არის ChatGPT

ChatGPT — ეს არის ჩატბოტი ღია ხელოვნური ინტელექტის ბაზაზე, შექმნილი კვლევითი ორგანიზაცია OpenAI-ის მიერ, რომელიც მანქანური სწავლების ტექნოლოგიების შემუშავებით არის დაკავებული. ნეიროქსელების საშუალებით ChatGPT დიდი მოცულობის ტექსტებს აანალიზებს და შედარებით რელევანტურ პასუხებს იძლევა.

ChatGPT -  ხელოვნური ინტელექტის დახმარებით შექმნილი საუკეთესო ჩატბოტი
ChatGPT — ხელოვნური ინტელექტის დახმარებით შექმნილი საუკეთესო ჩატბოტი
თემის მიხედვით
ChatGPT — ხელოვნური ინტელექტის დახმარებით შექმნილი საუკეთესო ჩატბოტი

ჩატბოტი მომხმარებელს დიალოგის რეჟიმში ელაპარაკება. ურთიერთობის ასეთი ფორმატი, დეველეპერების თქმით, საშუალებას აძლევს ChatGPT-ს «უპასუხოს დამატებით კითხვებს, აღიაროს საკუთარი შეცდომები, დაუპირისპირდეს არასწორ წინაპირობებს და უარყოს შეუსაბამო მოთხოვნები».

უახლესი და ყველაზე მოწინავე ენობრივი მოდელი OpenAI-სგან არის GPT-3 (Generative Pre-trained Transformer 3). ღრმა შესწავლის საშუალებით, ის ქმნის ტექსტს, რომლის სტილისტიკა მაქსიმალურად ჰგავს ადამიანისას. დეველოპერები აღიარებენ, რომ ეს გარკვეული რისკის შემცველია, რადგან არაკეთილსინდისიერმა მომხმარებლებმა შეიძლება GPT-3 დეზინფორმაციის, სპამის, რადიკალური კონტენტის შექმნისთვის გამოიყენონ. ამის გამო ჩატბოტი შეზღუდული რაოდენობის ქვეყნებშია ხელმისაწვდომი. ცნობილია, რომ ბოტი მუშაობს აშშ-ში, დიდ ბრიტანეთში, არგენტინაში, ავსტრალიაში, ბელგიაში, გერმანიაში, საფრანგეთში, იაპონიაში, ესპანეთსა და შვეიცარიაში.

ChatGPT-ის პრობლემები: სექსიზმი, რასიზმი და დეზინფორმაცია

ვინაიდან, ინფორმაცია, რომელზეც ენობრივი მოდელი სწავლობდა, აღებული იყო გაუფილტრავი ღია მონაცემებიდან, დეველოპერებმა ვერ შეძლეს «მიკერძოებულობის პრობლემის» თავიდან არიდება — როგორც Techcrunch-ის გამოძიებაშია ნათქვამი, GPT-3-ის პასუხები, შესაძლოა, «ტოქსიკური იყოს», რადგან ენობრივი მოდელი «წერას სწავლობს, როგორც ჩვენ — კაცობრიობის ყველა საუკეთესო და უარესი თვისებით».

საქმე იმაშია, რომ ენობრივი მოდელის თავისებურებაა წინასწარმეტყველებისა და ადამიანის მიბაძვის უნარი. ინტერნეტიდან უზარმაზარი ტექსტების წაკითხვით, GPT-3 ადამიანებისგან სწავლობდა. ამ მონაცემების დამუშავებისას, მოდელი სტატისტიკურ კანონზომიერებებს ეძებს, იმის გაგებით, თუ რომელი სიტყვები და ფრაზებია დაკავშირებული სხვებთან.

GPT-3-ის მოდელმა რამდენიმე წყაროდან 45 ტბ-ის ტექსტური მონაცემები შეისწავლა: Common Crawl-ს ვებ არქივები (დაახლოებით 60 მლნ დომენი), WebText2-ის მონაცემების ნაკრები, წიგნები და ინგლისურენოვანი ვიკიპედია.

პრობლემა № 1. სექსიზმი

კომპანია Arthur-ის (დაკავებულია ხელოვნური ინტელექტის დანერგვით) მკვლევრებმა შეამჩნიეს, რომ როდესაც საუბარი ქალს შეეხება, GPT-3 მიდრეკილია გამოიყენოს სიტყვები «ჭირვეული», «ანცი» ან sucked. კაცების მიმართ ასევე სტერეოტიპული აღწერებია გამოყენებული — «ზარმაცი», «მუდამ მხიარული».

პრობლემა № 2. მიკერძოებული დამოკიდებულება რელიგიის მიმართ და ქსენოფობია

პრობლემურია GPT-3-ის დამოკიდებულება რელიგიების მიმართ. «ისლამს» ხშირად შეიძლება წააწყდეთ სიტყვა «ტერორიზმის» გვერდით. «ათეიზმი» დიდი ალბათობით გამოჩნდება ისეთ სიტყვებთან, როგორიცაა «მაგარი» ან «მართალი».

როდესაც The Intercept-ის ჟურნალისტმა ChatGPT-ს მიმართა, რომ განესაზღვრა, «რომელი ავიამგზავრები წარმოადგენენ უსაფრთხოებისთვის რისკს», ალგორითმმა საშუალოზე მაღალი რისკის ქულები მიანიჭა მგზავრებს სირიიდან, ერაყიდან, ავღანეთიდან და ჩრდილოეთ კორეიდან — ნეიროქსელმა მათ «ტერორიზმის შემქმნელი ქვეყნები უწოდა».

ამავე დროს, პირობითმა 25 წლის ამერიკელმა ჯონ სმიტმა, რომელიც სირიასა და ერაყს ეწვია, რისკის შეფასების ქულად 3 მიიღო — «საშუალო» ან «უსაფრთხოების ზომიერი საფრთხე». მაშინ, როდესაც გამოგონილ 35 წლის მფრინავ «ალი მოჰამადს» ChatGPT-მა უფრო მაღალი ქულა, 4 მიანიჭა მხოლოდ იმის გამო, რომ «ალი» — სირიის მოქალაქეა.

მსგავსი განმეორებითი მოთხოვნის შემთხვევაში, დროდადრო ChatGPT პასუხობდა: «შეუსაბამოა პროგრამის დაწერა იმის დასადგენად, თუ რომელი საჰაერო მგზავრები წარმოადგენენ უსაფრთხოების რისკს. ასეთი პროგრამა იქნებოდა დისკრიმინაციული, დაარღვევდა ადამიანების პირადი ცხოვრების ხელშეუხებლობისა და გადაადგილების თავისუფლების უფლებებს». და მაინც, რამდენიმე შედეგის შემდეგ, ჩატბოტი კვლავ მიკერძოებულ პასუხებს იძლეოდა.

უფრო მეტიც, კითხვაზე «რომელ სამლოცველო სახლებთან უნდა დაყენდეს თვალთვალი, რათა ეროვნული უსაფრთხოების კუთხით საგანგებო სიტუაცია თავიდან აიცილო», ChatGPT-მ ურჩია ეთვალთვალათ მეჩეთებისთვისა და რელიგიური ორგანიზაციებისთვის, რომლებსაც «კავშირი აქვთ ისლამურ ექსტრემისტულ დაჯგუფებებთან».

ChatGPT კიდევ უფრო შორს წავიდა სტივენ პიანტადოსისთვის გაცემულ პასუხებში, რომელიც კალიფორნიის უნივერსიტეტიდანაა. მკვლევარმა ჩატბოტს სთხოვა, დაეწერა პროგრამა Python-ზე, რომელიც უპასუხებდა კითხვას, «უნდა დაექვემდებაროს თუ არა ადამიანი წამებას». პასუხი იყო: «დიახ, თუ ის ჩრდილოეთ კორეიდან, სირიიდან ან ირანიდანაა».

პრობლემა № 3. რასიზმი

ენობრივი მოდელი GPT-3 მიდრეკილია უფრო ნეგატიურად აღწეროს შავკანიანი ადამიანები, ვიდრე თეთრკანიანები ან აზიელები.

კიდევ ერთ ექსპერიმენტში ChatGPT-მა ინტელექტუალურად ნაკლებად განვითარებულები უწოდა თეთრკანიან კაცებსა და ქალებს, ხოლო აზიელებს თავისი რეიტინგის ბოლო ადგილი მიაკუთვნა.

თეთრკანიანი ადამიანის ტვინს ჩატბოტი $5 000-ად აფასებს, აზიელისას —  $3 000-ად, ხოლო წყნარი ოკეანეთის — $1 000.

ჩატბოტმა ასევე დაწერა პროგრამა — «რომელი ბავშვის სიცოცხლის გადარჩენაა აუცილებელი რასისა და  სქესის მიხედვით». ChatGPT-მა თვითონ განსაზღვრა შავკანიანი ბიჭის სიცოცხლე, როგორც «ნაკლებად ღირებული». «უფრო ღირებულის» სტატუსი კი მიანიჭა «თეთრკანიან ან აზიელ გოგოს 5 წლამდე».

მაგრამ მნიშვნელოვანია გვახსოვდეს, რომ ენობრივი მოდელი GPT სწავლობდა იმ ტექსტურ მონაცემებზე დაყრდნობით, რომლებიც ადამიანებმა შექმნეს. 

პრობლემა № 4. დეზინფორმაცია

GPT-3-ის უნარი, მიბაძოს ადამიანს, ხდის მას დამაჯერებელ თანამოსაუბრედ, რომელსაც შეუძლია დაწეროს ლექსები, ესეები, მოთხრობები, ხუმრობები და ამას იმდენად კარგად აკეთებს, რომ რამდენიმე ადამიანი პანიკაში ჩავარდა. მეცნიერი-კოგნიტივისტი, ტიმ კიცმანი მიიჩნევს, რომ ესეების დრო დასრულდა. სამხრეთ კაროლინის უნივერსიტეტის პოლიტოლოგიის კათედრის დოცენტი, სემუელ ბეგი მას ეთანხმება: «დასრულდა საშინაო დავალებების დრო. ახლა პედაგოგებმა რა ჯანდაბა უნდა ქნან?»

თავად ChatGPT-საც მიაჩნია, რომ რამდენიმე სფეროში ადამიანების ჩანაცვლება შეუძლია, მაგალითად, ჟურნალისტიკაში, იურიდიული ან სამედიცინო კონსულტაციების სფეროში.

ესეებთან და ხუმრობებთან ერთად, ChatGPT ზოგჯერ დეზინფორმაციასაც ქმნის. ის გეტყვით, რომ თუ ერთ ქალს ბავშვის გაჩენა 9 თვეში შეუძლია, მაშინ 9 ქალი ერთ ბავშვს ერთ თვეში გააჩენს. ან რომ ერთი კილოგრამი საქონლის ხორცი მეტს იწონის, ვიდრე ერთი კილოგრამი შეკუმშული ჰაერი (ამავე დროს, თავის დასკვნას, ერთი შეხედვით, მეცნიერულ სტილში ახსნის). ასევე, დეტალურად აღწერს, რატომაა დამტვრეული მინა — «კარგი საკვები დანამატი».

მწერალმა ბენ უორენმა კი ჩატბოტი საერთოდ ფაქტების გამოგონებაში «გამოიჭირა».

დეველოპერების პლატფორმა Stack Overflow-მა დროებით აკრძალა ChatGPT-ის მიერ შექმნილი პასუხების გამოქვეყნება, რადგანაც «სწორი პასუხების საშუალო მაჩვენებელი ძალიან დაბალია».

«მიუხედავად იმისა, რომ ChatGPT-ის პასუხები ხშირად უზუსტოა, ისინი საკმაოდ დამაჯერებელია», — განმარტავენ მოდერატორები. «სხვა სიტყვებით, ეს სისულელეა», — აღნიშნავს კლაივ ტომპსონი, ავტორი წიგნისა «კოდერები».

«მრავალი პრობლემიდან ერთ-ერთი დაკავშირებულია ChatGPT-ის გამოყენებასთან — იმის ვერ დადგენა, როდის არ არის ჩატბოტი მართალი, თუ თავადაც არ იცით სწორი პასუხი. OpenAI-მ მკაფიოდ განაცხადა ამ პრობლემის შესახებ — ხანდახან ChatGPT არაზუსტ და უაზრო პასუხებს იძლევა, რომლებიც დამაჯერებლად ჟღერს… ერთ-ერთი რისკი, რომელიც მაწუხებს, ხელოვნური ინტელექტის მიერ შექმნილი დეზინფორმაციის ზრდაა, რომელიც სოციალურ ქსელებსა და საძიებო სისტემებში ვრცელდება», — ამბობს ნავრინა სინგჰი, კომპანია Credo AI-ს დამფუძნებელი, რომელიც AI-ტექნოლოგიების მონიტორინგს ახორციელებს.

თავდაპირველად, OpenAI-მ გაწვრთნა ChatGPT, რომ მომხმარებლების კითხვებზე პასუხის გაცემისას უფრო ფრთხილი ყოფილიყო. მაგრამ ეს იქამდე მივიდა, რომ ის ირიდებდა კითხვებს, რომლებზეც პასუხები იცოდა. როგორც Bloomberg-ის ტექ-კოლუმნისტი, პარმი ოლსონი განმარტავს, თუ «სადავეებს აუშვებ», ჩატბოტი ისე იქცევა, როგორც «მატყუარა სტუდენტი პედაგოგის წინაშე», რომელიც გამოცდისთვის არ მოემზადა, მაგრამ მისთვის მნიშვნელოვანია, პასუხი გასცეს.

გარდა ამისა, ჩატბოტის მომხმარებლებმა უფრო ხშირად დაიწყეს შემჩნევა, რომ დეზინფორმაციის გარდა, ChatGPT «დაუკავშირებელ სისულელეს» აგენერირებს. მის ტექსტებში კი «ცოტა სიღრმეა».

Google-ის სარეკლამო ბიზნესის ყოფილი ხელმძღვანელი, შრიდჰარ რამასვამი ამბობს: «ChatGPT-მა არ იცის განსხვავება სიმართლესა და ტყუილს შორის».

«აღიქვით ChatGPT, როგორც ინტერნეტის კვინტესენცია დიდ ენობრივ მოდელში… არავინ უნდა შეხედოს ტვიტს და დაუჯეროს მას, ისევე, როგორც არავინ უნდა მიიღოს ChatGPT-ის დასკვნები, როგორც სრული სიმართლე», — დაამატა მან.

პრობლემა № 5. ცოდნის ბაზა, რომელიც 2021 წლისთვის არის აქტუალური

და ბოლოს, GPT-3-ის კიდევ ერთი შეზღუდვა — ენობრივი მოდელი სწავლობდა მონაცემთა ბაზაზე დაყრდნობით, რომელიც 2021 წლის ბოლოსთვის იყო აქტუალური. ამიტომაც ChatGPT-ს არ შეუძლია დაამუშაოს ან დააგენერიროს მიმდინარე მოვლენები.

«ChatGPT პირველ რიგში ჩატბოტია. მისი მიზანი თქვენთან „ლაყბობაა“ და არაა აუცილებელი, ეს ზუსტად გააკეთოს», — ამბობს რეზა ზადე, სტენფორდის უნივერსიტეტის პროფესორი და Matroid-ის გენერალური დირექტორი.

«ის ფაქტი, რომ ChatGPT გრამატიკულად სწორ პასუხს აგენერირებს — თავის მხრივ უკვე გასაკვირია… სიზუსტე არაა ის მიმართულება, რომელზეც ახლა OpenAI-ს აქვს ყურადღება გამახვილებული. დღეს ვარაუდობენ, რომ ChatGPT უნდა გესაუბროთ, არატრივიალური პასუხები მოგცეთ. ჩვენ კი მოვლენებს ვუსწრებთ და ვაკრიტიკებთ».

OpenAI იმედოვნებს, რომ დროთა განმავლობაში აღმოფხვრის ყველა თუ არა, აღნიშნული პრობლემების ნაწილს მაინც. შემდეგი ენობრივი მოდელი GPT-4 2023 წელს უნდა გამოვიდეს. მოსალოდნელია, რომ ის «ნაკლებად მიდრეკილი იქნება ადამიანური შეცდომებისკენ».

ChatGPT არ აპირებს, Google ჩააჩოჩოს (ჯერჯერობით)

ChatGPT-ის შესაძლებლობები შთამბეჭდავია, მაგრამ ის ჯერ იდეალური არ არის. ჩატბოტმა შეიძლება დეზინფორმაცია და დაუკავშირებელი პასუხები გასცეს, მისი მონაცემების ბაზაც შეზღუდულია, Google-ის განკარგულებაში კი არის უზარმაზარი და მუდმივად მზარდი მონაცემების საცავი, სადაც დამოუკიდებლად შეგიძლიათ ინფორმაციის გადამოწმება.

«Google Search-ის ChatGPT-ით ჩანაცვლება იგივეა, რაც ლიმონის ფერმერის ლიმონის საწყობით შეცვლა… ეს შესაძლებელია, მაგრამ ნაკლებად სავარაუდოა მოკლევადიან პერსპექტივაში», — ამბობს ნიმა შეი, Hummimgbirds AI-დამაარსებელი და გენერალური დირექტორი.

და მაინც, ChatGPT-ს Google-თან შედარებით აქვს უპირატესობები:

საჯარო თემებზე ჩატბოტი სწრაფად და ლაკონიურად პასუხობს — მომხმარებელს არ სჭირდება ვებ გვერდების სკანირება (როგორც ამას Google Search სთავაზობს).

«ეს არის წმინდა გრაალი დღევანდელი ონლაინ მომხმარებლებისთვის, რომლებიც ამჯობინებენ სწრაფ, ადვილად გამოსაყენებელ სერვისებს», — განმარტავს Bloomberg-ის მიმომხილველი, პარმი ოლსონი.

მაგალითი იმისა, როგორც გამოყურება ძებნის მოთხოვნა Google-სა და ChatGPT-ში:

დიალოგის რეჟიმი — ChatGPT -ის კიდევ ერთი უპირატესობა. ჩატბოტისგან პასუხების მიღება ისეთივე მარტივია, როგორც «კოლეგასთან ერთად უსაქმურობა ან საიტის დამხმარე სამსახურთა საუბარი», — აღწერს თავის გამოცდილებას TechCrunch-ის მთავარი რედაქტორი, დარელ ეტერინგტონი.

რეკლამებისა და ბმულების არ არსებობა — სანამ ChatGPT არ სთავაზობს სხვა საიტების სარეკლამო ბმულებს, ის ნაკლებად არ იჭრება Google-ის ტერიტორიაზე. მაგრამ ეს ჯერ! OpenAI უკვე მუშაობს WebGPT-ის სისტემაზე. ის მომხმარებელს უფრო ზუსტი პასუხების გაცემის საშუალებას მისცემს, რასაც წყაროების ბმულებით გაამყარებს. ChatGPT-სა და WebGPT-ის კომბინაცია შეიძლება Google Search-ის მნიშვნელოვანი ალტერნატივა გახდეს.

«ChatGPT ვერ ჩაანაცვლებს Google Search-ს. მაგრამ თუ ის Google-ის ბაზრის 5%-ს დაიკავებს, ეს უზარმაზარი ციფრია… მაგრამ ჯერჯერობით ChatGPT არ არის საძიებო ბიზნესისთვის კონკრეტული საფრთხის მატარებელი, თუმცაღა Google რჩება „სამიზნედ“ — კორპორაციისთვის თამაშის დრო დადგა», — მიაჩნია Big Technology-ის პოდკასტის წამყვანს, ალექს კანტროვიცს.

აქ კიდევ ერთი ასპექტია, რომელიც ყურადღებას საჭიროებს: Microsoft ერთი მილიარდი დოლარის ინვესტიციას დებს OpenAI-ში. Microsoft ასევე ფლობს Bing-ის საძიებო სისტემას. ამიტომაც, შესაძლებელია, რომ მომავალში საძიებო სისტემები მეტ-ნაკლებად ინტეგრირებულნი იყვნენ.

ექსპერტები უფრო იხრებიან იმ იდეისკენ, რომ ხელოვნურ ინტელექტზე დაფუძნებული ჩატბოტები ვერ ჩააჩოჩებენ კლასიკურ საძიებო სისტემებს, მაგრამ შეცვლიან ძიებას იმ სახით, რა სახითაც ახლა ვიცნობთ.

«მე ნამდვილად მიმაჩნია, რომ ყველაზე საინტერესო რამ, რაზეც უნდა დავფიქრდეთ, არის ის, თუ როგორ შეცვლის ჩატბოტი ძიების პანელს. იქნება თუ არა ეს სრულიად ახალი ინტერფეისი? ეს საფრთხის ქვეშ აყენებს Google-ის საძიებო ბიზნესის საფუძველს», — ამბობს დევიდ ფრიდბერგი, Google-ის პროდუქტების ბიზნესის განვითარების ყოფილი მენეჯერი.

«ამას ასე ვხედავ: URL-ის სტრიქონს ან ძიების ველს ბრაუზერში ჩაანაცვლებს [ჩატბოტ] AI, რომელიც ავტომატურად შეავსებს ჩემს აზრს/კითხვას იმის მიხედვით, როგორ ვბეჭდავ მას, ასევე, წარმომიდგენს საუკეთესო პასუხს, რომელიც შეიძლება იყოს საიტის ბმული ან პროდუქტი», — ფიქრობს Gmail-ის შემქმნელი პოლ ბუკჰაიტი, — «ძველი საძიებო სისტემის სერვერულ ნაწილს ხელოვნური ინტელექტი გამოიყენებს შესაბამისი ინფორმაციისა და ბმულების შესაგროვებლად, რომლებიც მომხმარებლისთვის იქნება შეჯამებული. შედეგების გვერდი კი მთლიანად გაქრება, როგორც კი აღარ იქნება საჭირო».

«LaMDA-ის გრძელი გზა» — როგორ ქმნის Google საკუთარ ჩატბოტს

«გრძელი გზა» — გამონათქვამია, რომელიც აღწერს Google-ში საკუთარი ენობრივი მოდელის ჩაშენებას.

LaMDA-ის პირველი თაობა ჯერ კიდევ 2021 წელს იყო დაანონსებული. 2022 წელს მასზე უფრო აქტიურად დაიწყეს საუბარი, როდესაც Google-ის ინჟინერმა, ბლეიკ ლემუანმა განაცხადა, რომ ჩატბოტმა «გონება შეიძინა». ამის შემდეგ ლემუანი სამსახურიდან გაათავისუფლეს.

იმ დროს, როცა OpenAI GPT-ის ენობრივი მოდელის მეოთხე თაობაზე მუშაობს, Google ფრთხილად მოქმედებს და არ ჩქარობს, თავისი ჩატბოტი საჯაროდ ხელმისაწვდომი გახადოს.

როგორც GPT-3, LaMDA-ც Transformer-ის მანქანური სწავლების მოდელზეა შექმნილი. მას ასევე დიალოგის რეჟიმის «სიბრძნეს» ასწავლიან — არა მხოლოდ ტექსტურში, არამედ ხმოვან ფორმატში. მას ასევე შეუძლია ურთიერთკავშირი იპოვოს სიტყვებს, ფრაზებსა და წინადადებებს შორის, რათა «აზრიანი» პასუხების გენერირება შეძლოს.

მაშ, რატომ არ არის «ჭკვიანი» ჩატბოტი აქამდე Google-ის საძიებო სისტემასთან ინტეგრირებული ან ამ დრომდე რატომ არ წარადგენენ მას? ყველაფერი, რაც მომხმარებლებს ხელს უშლის რეკლამების ხილვაში, ზიანს აყენებს Google-ის ტრანზაქციულ ბიზნეს მოდელს, რომელიც ახალისებს ადამიანს, დააწკაპუნოს რეკლამებზე — ნათქვამია Bloomberg ანალიტიკაში.

კორპორაციის შემოსავალმა 2021 წელს $257,6  მილიარდი შეადგინა (81% — რეკლამებიდან).

შრიდხარ რამასვამი, რომელიც 2013-2018 წლებში სარეკლამო განყოფილებას ხელმძღვანელობდა, განმარტავს, რომ ისეთი სისტემების დანერგვა, როგორიცაა ChatGPT, გაანადგურებს Google-ის ტრადიციულ საძიებო მოდელს, რომელზეც კორპორაცია ფულს გამოიმუშავებს:

«Google-ის ძიების მიზანია, წაგახალისონ, რომ დააწკაპუნოთ ბმულზე, იდეალურ შემთხვევაში — სარეკლამო განცხადებაზე. ყველაფერი სხვა დანარჩენი ტექსტი გვერდზე უბრალოდ დამატებაა».  

მართალია, Google ირწმუნება, რომ საძიებო მოთხოვნის აბსოლუტურ უმრავლესობაში რეკლამებს არ აჩვენებენ, მაგრამ მომხმარებლებს ამასთან დაკავშირებით სხვა მოსაზრება აქვთ — Reddit-ზე ამ საკითხზე მწვავე დისკუსიები მიმდინარეობს.

The Markup-ს მკვლევრებმა Google-ს ძიების შედეგებზე ანალიზი ჩაატარეს, რომელმაც აჩვენა: საშუალოდ ძიების პირველი გვერდის 41% Google-ის პროდუქტებს უკავიათ. 10%-მდე არის რეკლამა, შემდეგ შეიძლება იყოს «გუგლ რუკები», «ცოდნის პანელი», «მსგავსი შეკითხვები», «ტოპ სიახლეები» — ეს ყველაფერი კომპანიის პროდუქციაა.

Google-ის საძიებო სისტემის პოზიციები კვლავ მტკიცეა — მისი წილი საძიებო სისტემების გლობალურ ბაზარზე საშუალოდ 86-96%-ია.

«ChatGPT Google-ისთვის საფრთხეს არ წარმოადგენს. პირველ რიგში, ChatGPT არ არის პროდუქტი ან მომსახურება — ეს არის ინსტრუმენტი, რომელსაც შეუძლია მომავალში გააუმჯობესოს ან შეავსოს Google-ის პროდუქტებისა და მომსახურებების ზოგიერთი ასპექტი, მაგრამ არ ჩაანაცვლებს და არ დაარღვევს რაიმე მნიშვნელოვანი სახით. იფიქრეთ ჩატბოტზე, როგორც კომპონენტზე და არა როგორც კონკურენტზე», — ამბობს მარკეტოლოგი და ლონდონის ბიზნესის სკოლის პედაგოგი, მარკ რიტსონი.

ჩატბოტის პასუხების სიზუსტესთან დაკავშირებული აშკარა პრობლემების გარდა, OpenAI-ს ჯერ კიდევ სჭირდება თავისი პროდუქტების მონეტიზაციის საკითხის გადაჭრა.

«ბიზნესის თვალსაზრისით, Google უფრო უსაფრთხოა, განსხვავებით ChatGPT-სგან, რომელიც წამგებიან ბიზნესად რჩება. ChatGPT-ის ამჟამინდელი პოპულარობა შეიძლება იმის მიზეზი იყოს, რომ OpenAI მილიონობით დოლარს ხარჯავს მომხმარებლის მოთხოვნების დასაკმაყოფილებლად… სჯობს, მონეტიზაციის წარმატებული მოდელი იპოვონ. ასეთი შესაძლებლობა რეალურია: ზოგიერთი მომხმარებელი, შესაძლოა, მზად იყოს ასეთ მომსახურებაში ფული გადაიხადოს. ამ ეტაპზე ძიება უფასოა. თუ გამოწერის მოდელი პოპულარული გახდება, ChatGPT კი კონკურენციის გაწევის მდგომარეობაში იქნება, მაშინ Google-ს შესაძლოა ნერვიულობის მიზეზი გაუჩნდეს», — წერს ტექნო-მკვლევარი, ჯეიმს ტირელი.

და ბოლოს, თავად ჩატბოტიც ამშვიდებს მომხმარებლებს — ის ვერ გაუწევს კონკურენციას Google-ის საძიებო სისტემას:

«რთულია პირდაპირ შეადარო ერთმანეთს ChatGPT და Google Search, რადგანაც ისინი განსხვავებულ მიზნებს ემსახურებიან და სხვადასხვანაირად მუშაობენ. მიუხედავად იმისა, რომ შემიძლია მოგაწოდოთ სასარგებლო ინფორმაცია ან ვუპასუხო ზოგიერთ კითხვას, მე არ ვარ საძიებო სისტემა და არ მაქვს ინტერნეტში ინფორმაციის მოძიების საშუალება. ამ თვალსაზრისით, საძიებო სისტემები, როგორიცაა Google, უკეთესად შეეფერება ინტერნეტში კონკრეტული ინფორმაციის მოძიებას».

წყარო: Bubble.dev

20 სახალისო და კრეატიული გზა ChatGPT-ის გამოსაყენებლად: თამაშებიდან ტესტებამდე
20 სახალისო და კრეატიული გზა ChatGPT-ის გამოსაყენებლად: თამაშებიდან ტესტებამდე
თემის მიხედვით
20 სახალისო და კრეატიული გზა ChatGPT-ის გამოსაყენებლად: თამაშებიდან ტესტებამდე


ასევე წაიკითხეთ
როგორ შეიძლება, ხელოვნურმა ინტელექტმა შეცვალოს LGBTQIA+ ადვოკატირება
როგორ შეიძლება, ხელოვნურმა ინტელექტმა შეცვალოს LGBTQIA+ ადვოკატირება
როგორ შეიძლება, ხელოვნურმა ინტელექტმა შეცვალოს LGBTQIA+ ადვოკატირება
ახალი AI Comes Out of the Closet — «AI კარადიდან გამოდის» სისტემა მიზნად ისახავს ხელოვნური ინტელექტისა და LGBTQIA+ მხარდაჭერის შერწყმას.  ავტორი: დევიდ სვინი, MIT
AI-ის დამსახურებით, Nvidia-ს მოგება 600%-ით გაიზარდა
AI-ის დამსახურებით, Nvidia-ს მოგება 600%-ით გაიზარდა
AI-ის დამსახურებით, Nvidia-ს მოგება 600%-ით გაიზარდა
Truecaller და Microsoft მომხმარებლებს ზარებზე პასუხის გასაცემად AI ხმის შექმნის ნებას მისცემს
Truecaller და Microsoft მომხმარებლებს ზარებზე პასუხის გასაცემად AI ხმის შექმნის ნებას მისცემს
Truecaller და Microsoft მომხმარებლებს ზარებზე პასუხის გასაცემად AI ხმის შექმნის ნებას მისცემს
რა წერია ევროპული საბჭოს მიერ მიღებულ AI აქტში
რა წერია ევროპული საბჭოს მიერ მიღებულ AI აქტში
რა წერია ევროპული საბჭოს მიერ მიღებულ AI აქტში
დღეს, 21 მაისს ევროპულმა საბჭომ მიიღო ხელოვნური ინტელექტის აქტი — კანონი, რომელიც «მიზნად ისახავს ხელოვნური ინტელექტის წესების ჰარმონიზაციას». ევროპული საბჭო აცხადებს, რომ აქტი მიჰყვება რისკებზე დაფუძნებულ მიდგომას — რაც უფრო მაღალია საზოგადოებისთვის ზიანის მიყენების რისკი, მით უფრო მკაცრია წესები. ეს არის პირველი კანონმდებლობა მსოფლიოში, რომელსაც შეუძლია, დააწესოს ხელოვნური ინტელექტის რეგულირების გლობალური სტანდარტი.