#ai
730 статей знайдено
Останні
Згідно з інформацією Wall Street Journal, компанія Meta розробляє систему штучного інтелекту, аби перевершити всі наявні мовні моделі, а зокрема GPT-4 та попередню модель Llama 2. Нова розробка буде спрямована на обробку об'ємних текстів і подальший їх аналіз. А за планом розробників передбачено, що навчання моделі розпочнеться у 2024 році.
Сьогодні були опубліковані основні теми цього заходу з великим акцентом на ризики та політику підтримки технології.
Зустріч об’єднає ключові країни, а також провідні технологічні організації, академічні кола та громадянське суспільство, щоб інформувати про швидкі національні та міжнародні дії на передовій розвитку AI.
Представники країни вважають, що прискорення інвестицій у AI та його можливості відкривають величезні горизонти для продуктивності та суспільного блага, але не без регуляції.
Без належних нормативних обмежень ці технології можуть створювати істотні ризики, оскільки для ШІ немає кордонів. Отже, необхідність протидії таким ризикам, у тому числі на глобальному рівні, наразі надзвичайно актуальна. КНР має намір встановити контроль над метавсесвітом
Агентство ООН ITU (International Telecommunication Union, Міжнародний союз електрозв’язку), що визначає глобальні правила для телекому, стає ареною геополітичного протистояння між КНР та колективним Заходом. Китай активно нав’язує свої тоталітарні наративи оперативній групі ITU з метавсесвіту.
На OpenAI та Microsoft подали колективний позов до суду. Компанії звинувачуються у скануванні вебсторінок з метою збору приватних даних користувачів для навчання моделей штучного інтелекту, таких як ChatGPT. Позов було подано 5 вересня в Сан-Франциско. Згідно з заявою, техгіганти використовували конфіденційну інформацію, включно з персональними даними незліченної кількості інтернет-користувачів, без їхньої на те згоди. Позивачі стверджують, що без цих даних ні ChatGPT, ні DALL-E не стали б мільярдними компаніями, якими вони є сьогодні. Вимагають відшкодування збитків і припинення незаконного збору даних. 














