Samsung-ის თანამშრომლებმა ChatGPT გამოიყენეს, რის გამოც კომპანიის საიდუმლო მონაცემებმა გაჟონა
Samsung-ის თანამშრომლები ChatGPT-ის დავალებების შესრულებაში დასახმარებლად იყენებდნენ. ამის გამო კომპანიის საიდუმლო მონაცემებმა გაჟონა.
Samsung-ის თანამშრომლები ChatGPT-ის დავალებების შესრულებაში დასახმარებლად იყენებდნენ. ამის გამო კომპანიის საიდუმლო მონაცემებმა გაჟონა.
კომპანიამ ინჟინრებს ნება დართო, ხელოვნური ინტელექტის ჩათბოტი კოდთან დაკავშირებული პრობლემების აღმოფხვრისთვის გამოეყენებინათ. ამისთვის მათ ისეთი კონფიდენციალური მონაცემების შეყვანა მოუწიათ, როგორიცაა ახალი პროგრამისთვის წყაროს კოდი და მათ აპარატურასთან დაკავშირებული მონაცემები.
სულ რაღაც ერთ თვეში სამი შემთხვევა მოხდა, როდესაც თანამშრომლებმა ChatGPT-ის საშუალებით კონფიდენციალური და სენსიტიური ინფორმაცია გაავრცელეს. ჩათბოტი საკუთარი თავის გაწვრთნისთვის მომხმარებელთა მონაცემებს ინახავს, აქედან გამომდინარე, Samsung-ის სავაჭრო საიდუმლოებები ახლა OpenAI-ის ხელშია.
საპასუხოდ, Samsung Semiconductor თანამშრომლებისთვის საკუთარ ხელოვნურ ინტელექტს ქმნის, მაგრამ მათ შეუძლიათ, მხოლოდ 1024 ბაიტით შეზღუდული მოთხოვნები გამოიყენონ.
Samsung-ის ერთ-ერთმა თანამშრომელმა ChatGPT-ის სთხოვა, ჩიპების ხარვეზის იდენტიფიცირებისთვის ტესტის თანმიმდევრობის ოპტიმიზაცია მოეხდინა, რაც კონფიდენციალურია — თუმცა ეს ჩიპების მწარმოებელ კომპანიებს პროცესორების ტესტირებისას მნიშვნელოვან დროს დააზოგინებს. ასევე ხარჯებს შეამცირებს.
სხვა შემთხვევაში, თანამშრომელმა ChatGPT შეხვედრის ჩანაწერების პრეზენტაციაში გადასაყვანად გამოიყენა, რომლის შინაარსიც, სავარაუდოდ, გარე, მესამე მხარეს არ უნდა სცოდნოდა.
Samsung Electronics-მა ინციდენტების შემდეგ თავის თანამშრომლები კონფიდენციალური ინფორმაციის გაჟონვის პოტენციური საფრთხის შესახებ გააფრთხილა. კომპანიის თქმით, მონაცემების დაბრუნება შეუძლებელია, რადგან ისინი ახლა OpenAI-ის კუთვნილ სერვერებზე ინახება. ნახევარგამტარების ინდუსტრიაში, სადაც კონკუნცია დაუნდობელია, კონკრეტული კომპანიისთვის ნებისმიერი სახის მონაცემთა გაჟონვა შეიძლება დამღუპველი აღმოჩნდეს.
Samsung-ს უფლება არ აქვს, იმ სენსიტიური მონაცემების დაბრუნება ან წაშლა მოითხოვოს, რომელსაც OpenAI ფლობს. ზოგიერთი ამტკიცებს, რომ ეს ფაქტი ChatGPT-ს ევროკავშირის GDPR-თან შეუსაბამოს ხდის — ეწინააღმდეგება აპრობირებულ წესს, კომპანიებმა მონაცემები როგორ შეაგროვონ და გამოიყენონ. ეს არის ასევე ერთ-ერთი მიზეზი, რის გამოც იტალიაში ChatGPT-ის გამოყენება აკრძალეს.