🏗️ აშშ კომპანიებს ხელოვნური ინტელექტის მონაცემთა ცენტრის ახალი „კომპაქტური“ შექმნისკენ უბიძგებს, იუწყება Politico ↗
როგორც ამბობენ, აშშ ცდილობს, მსხვილი ფირმები დაარწმუნოს, ხელი მოაწერონ ხელოვნური ინტელექტის მონაცემთა ცენტრების ახალ „კომპაქტურ“ შეთანხმებას, რაც არსებითად ვალდებულებების ერთობლიობას წარმოადგენს იმის შესახებ, თუ როგორ უნდა განხორციელდეს ეს უზარმაზარი გამოთვლითი სისტემების აწყობა.
დეტალები ჯერ კიდევ ცოტა ბუნდოვანია (კლასიკური), მაგრამ მიმართულება ნაცნობი ჩანს: ენერგეტიკის, უსაფრთხოების და შესაძლოა ანგარიშგების შესახებ მოლოდინების სტანდარტიზაცია - „გთხოვთ, ნუ მისცემთ ამის ქაოსში გადაქცევის“ თავაზიანი პოლიტიკური ვერსია
🎬 Autodesk-მა Google-ს ხელოვნური ინტელექტით მომუშავე ფილმების შექმნის პროგრამული უზრუნველყოფის გამო უჩივლა ↗
Autodesk-ი Google-ს სახელწოდების „Flow“-ს გამო უჩივის და აცხადებს, რომ კომპანია უკვე იყენებდა „Flow“-ს წარმოებისა და ვიზუალური ეფექტების მართვის პროგრამული უზრუნველყოფისთვის - და Google-ის ხელოვნური ინტელექტის მქონე კინოგადაღების ინსტრუმენტიც იგივე ბრენდინგით გამოჩნდა.
უფრო მკვეთრი დეტალი არის ბრალდება, რომ Google-მა ადრე განაცხადა, რომ არ აპირებდა სახელის კომერციალიზაციას... შემდეგ კი მაინც განაგრძო სავაჭრო ნიშნების დამკვიდრება. ეს, რა თქმა უნდა, სავაჭრო ნიშნებთან ბრძოლაა, მაგრამ ის ასევე მოიცავს მცირე მასშტაბის „დიდი პლატფორმის წინააღმდეგ სპეციალიზებული ხელსაწყოების შემქმნელის“ ენერგიას.
🏥 კვლევა აჩვენებს, რომ ხელოვნური ინტელექტი სამედიცინო რჩევის მაძიებელი პაციენტებისთვის სხვა მეთოდებთან შედარებით უკეთესი არ არის ↗
ახალმა კვლევამ აჩვენა, რომ პაციენტებისთვის სამედიცინო რჩევისთვის ხელოვნური ინტელექტის გამოყენებამ სხვა მიდგომებს არ გადააჭარბა - რაც გასაკვირი არ არის და გარკვეულწილად დამაიმედებელია, იმისდა მიხედვით, თუ რამდენად ყურადღებით აკვირდებოდით სიმპტომების შემმოწმებლებს.
ეს არ ნიშნავს, რომ ხელოვნური ინტელექტი უსარგებლოა ჯანდაცვაში - უბრალოდ, „ჰკითხე ბოტს“ ავტომატურად არ ნიშნავს არსებულ ვარიანტებთან შედარებით გაუმჯობესებას, განსაკუთრებით მაშინ, როდესაც მთავარი სიზუსტე და უსაფრთხოებაა.
🩺 ხელოვნური ინტელექტით მომუშავე აპლიკაციები და ბოტები მედიცინაში შეიჭრებიან. ექიმებს კითხვები აქვთ. ↗
გამოძიება იკვლევს, თუ როგორ იჭრება ხელოვნური ინტელექტის მქონე ჯანდაცვის აპლიკაციები და ჩატბოტები კლინიკურ სივრცეებში - ზოგჯერ უფრო სწრაფად, ვიდრე ამას ხელმძღვანელობა, ზედამხედველობა ან უბრალო მტკიცებულებები აკეთებს.
ექიმები შეშფოთებას გამოთქვამენ სანდოობასთან, პაციენტისთვის მიყენებულ ზიანთან და იმაზე, თუ ვინ არის პასუხისმგებელი, როდესაც ბოტი იძლევა რჩევას, რომელიც თავდაჯერებულად ჟღერს, მაგრამ არასწორია... მაგალითად, სატელიტური ნავიგატორი დაჟინებით მოითხოვს, რომ ტბაში მანქანით შეხვიდეთ, გარდა მედიკამენტების მიღებისა.
📈 CNBC-ის ცნობით, OpenAI-ის აღმასრულებელი დირექტორი აცხადებს, რომ ChatGPT-ის ყოველთვიური ზრდა 10%-ს აღემატებოდა ↗
როგორც ამბობენ, OpenAI-ის აღმასრულებელმა დირექტორმა განაცხადა, რომ ChatGPT-მა ყოველთვიური ზრდა 10%-ზე მეტს დაუბრუნდა - რაც დიდი ამბავია, თუ ვივარაუდებთ, რომ „ყველამ უკვე სცადა“ ფაზა პიკს მიაღწია.
ეს იმაზე მიუთითებს, რომ ან ახალი მომხმარებლები კვლავ შემოდიან, ან არსებული მომხმარებლები უფრო მეტ მიზეზს პოულობენ, რომ დარჩნენ - ან ორივე ერთად. ნებისმიერ შემთხვევაში, პროდუქტი ნაკლებად ჰგავს მოდას და უფრო მეტად ინფრასტრუქტურას... ყოველ შემთხვევაში, ასე ჩანს.
ხშირად დასმული კითხვები
რას წარმოადგენს აშშ-ის მიერ შემოთავაზებული ხელოვნური ინტელექტის მონაცემთა ცენტრის „კომპაქტი“?
ეს აღწერილია, როგორც ვალდებულებების ერთობლიობა, რომელსაც მსხვილი ფირმები დათანხმდებიან დიდი ხელოვნური ინტელექტის მონაცემთა ცენტრების მშენებლობის ან ექსპლუატაციის დროს. მიზანია მოლოდინების სტანდარტიზაცია, რათა ეს მასშტაბური გამოთვლითი პროექტები არ გახდეს გაფანტული ან არათანმიმდევრული კომპანიებს შორის. მიუხედავად იმისა, რომ სპეციფიკა ჯერ კიდევ გაურკვეველია, აქცენტი, როგორც ჩანს, პრაქტიკულ ტერიტორიაზეა: ენერგიის მოხმარება, უსაფრთხოება და შესაძლოა ანგარიშგების რაიმე ფორმა.
რატომ სურს აშშ-ს, რომ კომპანიებმა ხელი მოაწერონ ხელოვნური ინტელექტის მონაცემთა ცენტრის კომპაქტს?
კომპაქტური შეთანხმება საშუალებას იძლევა, შეიქმნას საერთო საბაზისო მოლოდინები კანონმდებლებისთვის ყოველი უკიდურესი შემთხვევისთვის ახალი წესის შემუშავების იძულების გარეშე. ხელოვნური ინტელექტის მონაცემთა ცენტრების სწრაფი გაფართოების გამო, პოლიტიკის შემქმნელები ხშირად ღელავენ ქსელზე ზემოქმედებაზე, უსაფრთხოების რისკებსა და ოპერაციულ გამჭვირვალობაზე. საერთო სტრატეგიაა ყველაზე დიდი მოთამაშეების ადრეულ ეტაპზე გაერთიანება, რათა გონივრული პრაქტიკა უფრო სწრაფად გავრცელდეს და პრობლემების წარმოშობის შემთხვევაში ანგარიშვალდებულების თვალყურის დევნება უფრო ადვილი იყოს.
რა სახის ვალდებულებები შეიძლება შევიდეს ხელოვნური ინტელექტის მონაცემთა ცენტრის კომპაქტში?
არსებული მოსაზრებებიდან გამომდინარე, ვალდებულებები შეიძლება მოიცავდეს ენერგეტიკის დაგეგმვას (როგორ ხდება ელექტროენერგიის მოპოვება და მართვა), უსაფრთხოების ზომებს (ფიზიკურ და კიბერ) და ანგარიშგების ან გამჟღავნების გარკვეულ ფორმას. ბევრ მილსადენში ანგარიშგება ხდება „აღსრულების უმნიშვნელო“ ფენა, რომელიც სტანდარტებს ადვილად აღსაქმელს და გაზომვას ხდის. თუ შეთანხმება ნებაყოფლობითია, ეს ვალდებულებები შეიძლება ჩამოყალიბდეს, როგორც სახელმძღვანელო პრინციპები, რომლებიც მოგვიანებით ხელს შეუწყობს რეგულირების ფორმირებას.
რა არის სარჩელი Google-ის ხელოვნური ინტელექტის მქონე ფილმების გადაღების ინსტრუმენტთან, სახელწოდებით „Flow“?
Autodesk-ი Google-ს უჩივის სახელწოდების „Flow“-ს გამო და ამტკიცებს, რომ Autodesk-ი უკვე იყენებდა „Flow“-ს წარმოებისა და ვიზუალური ეფექტების მართვის პროგრამული უზრუნველყოფისთვის. დავა წარმოდგენილია, როგორც სავაჭრო ნიშნისა და ბრენდინგის კონფლიქტი, იმ ბრალდებასთან ერთად, რომ Google-მა ადრე განაცხადა, რომ არ აპირებდა სახელის კომერციალიზაციას, მაგრამ მოგვიანებით მაინც განაგრძობდა სავაჭრო ნიშნების გამოყენებას. ეს საქმეები ხშირად ბრენდის პრიორიტეტულობასა და დაბნეულობის ალბათობას ეხება.
რას ნიშნავს, რომ ხელოვნური ინტელექტი პაციენტთა სამედიცინო კონსულტაციის სხვა მეთოდებზე უკეთესი არ იყო?
ეს იმაზე მიუთითებს, რომ „ბოტს ჰკითხე“ ავტომატურად უფრო ზუსტი ან უსაფრთხო არ არის, ვიდრე პაციენტების მიერ კონსულტაციის მიღების არსებული მეთოდები. ეს შეიძლება დამამშვიდებელი იყოს, თუ შეშფოთებული ხართ სიმპტომების შემმოწმებლების ან ჩატბოტების ზედმეტად თავდაჯერებული პასუხებით. ეს არ გამორიცხავს ხელოვნური ინტელექტის პოტენციურ ღირებულებას ჯანდაცვაში, მაგრამ ხაზს უსვამს მტკიცებულებების, ზედამხედველობისა და ფრთხილად ინტეგრაციის აუცილებლობას იმ შემთხვევებში, როდესაც შეცდომებმა შეიძლება ზიანი მიაყენოს.
რატომ აწუხებთ ექიმებს ხელოვნური ინტელექტით მართული ჯანდაცვის აპლიკაციები და ჩატბოტები?
ექიმები ღელავენ სანდოობაზე, პაციენტისთვის მიყენებულ ზიანზე და იმაზე, თუ ვინ არის პასუხისმგებელი, როდესაც ინსტრუმენტი გვაწვდის დამაჯერებელ, მაგრამ არასწორ რჩევას. საზრუნავი მხოლოდ სიზუსტეს არ ეხება; საქმე იმაშია, თუ როგორ განმარტავენ პაციენტები შედეგებს და უბიძგებს თუ არა სისტემა ადამიანებს არაუსაფრთხო თვითმართვისკენ. კლინიკურ გარემოში, ბუნდოვანი პასუხისმგებლობა შეიძლება დიდ რისკად იქცეს: პაციენტებმა შეიძლება ენდონ ინსტრუმენტს, კლინიცისტებმა შეიძლება ვერ აკონტროლონ იგი და რეკომენდაციები შეიძლება ჩამორჩეს დანერგვას.