- ASML рассказала, когда создаст машины для... (4)
- Роботакси Tesla провалили старт испытаний в... (9)
- 7410 мАч, 100 Вт, экран OLED 1,5K 144 Гц,... (2)
- Прах 160 человек и семена конопли не... (2)
- Впервые емкость батареи... (2)
- Google DeepMind представила модель для... (6)
- Skoda Octavia Pro сильно подешевела в... (39)
- «Мы возводили стены, а должны были строить... (40)
- Lada Niva Legend начали продавать в Германии... (38)
- Полные характеристики Google Pixel 10 стали... (61)
- $1 вместо полумиллиарда: Western Digital... (67)
- Обучать ИИ на онлайн-библиотеках законно —... (68)
- Учёные нашли на Земле метеориты, которые... (64)
- 240 дней изоляции: что изменилось в... (58)
- Исторические снимки Street View теперь в... (34)
- Исторические снимки Street View теперь в... (63)
Microsoft обвинили в использовании пиратских копий книг в обучении ИИ
Дата: сегодня 09:39
Кай Берд, Цзя Толентино, Дэниел Окрент и еще несколько авторов подали групповой иск, в котором они заявили, что Microsoft использовала пиратские цифровые версии их книг, чтобы научить систему ИИ реагировать на человеческие подсказки.
Авторы жалобы утверждают, что Microsoft использовала коллекцию из почти 200 000 пиратских книг для обучения Megatron, алгоритма, который дает текстовые ответы на запросы пользователя. В жалобе говорилось, что Microsoft использовала пиратский набор данных для создания «компьютерной модели, которая не только построена на работе тысяч создателей и авторов, но и создана для генерации широкого спектра выражений, которые имитируют синтаксис, голос и темы защищенных авторским правом произведений, на которых она была обучена».

Жалоба на Microsoft поступила на следующий день после того, как федеральный судья Калифорнии постановил, что Anthropic добросовестно использовала в соответствии с законом США об авторском праве материалы авторов для обучения своих систем ИИ, но все равно может нести ответственность за пиратство книг. Это было первое решение США о законности использования защищенных авторским правом материалов без разрешения для генеративного обучения ИИ.
Представители Microsoft не сразу отреагировали на просьбу прокомментировать иск. Адвокат авторов отказался от комментариев.
Подробнее на iXBT
Предыдущие новости
В Калуге покрасили первый Haval M6: подготовка к мелкоузловой сборке со сваркой и окраской
Сегодня, 26 июня, на заводе ПСМА в Калуге (мощности арендует ООО «Автомобильные технологии») покрасили первый кузов кроссовера Haval M6, о чем пишет главный редактор издания «За рулём» Максим Кадаков. Это часть подготовки к мелкоузловой сборке со сваркой и окраской. Говорят, цех покраски был полностью модернизирован под новый проект. Что именно входит в эту модернизацию – не...
В России начали продавать Volkswagen Golf VIII 2025 из Китая — очень дорого
Китайские Volkswagen Golf VIII 2025 года выпуска начали продавать в России, но цены космические — от 3,7 млн рублей. Причем эта стоимость у столичного дилера — уже с учетом всех скидок и спецпредложений. В других салонах Москвы машины еще дороже — 4,2 млн рублей. Примерно за такие же деньги можно приобрести «параллельную» Toyota Camry. Фото: Volkswagen Все «Гольфы»...
Volkswagen закроет завод в Дрездене: сначала на нём выпускались Phaeton, потом ID. 3
Volkswagen прекратит производство автомобилей на заводе Glaserne Manufaktur в Дрездене к концу 2025 года. Площадка, которая ранее выпускала Phaeton, в последние годы переключилась на ID. 3. Компания пока не определилась с будущим объекта, но ведёт переговоры о его трансформации. Одним из вариантов является создание инновационного кампуса совместно с Техническим университетом...
ИИ расчистит завалы непрочитанных сообщений в WhatsApp — запущены полностью приватные сводки
M**a объявила о запуске в WhatsApp функции Message Summaries, которая позволяет получать краткие сводки непрочитанных сообщений с помощью искусственного интеллекта (ИИ). Так как технология основана на методе защищённой среды Private Processing, разработчики утверждают, что ни M**a, ни само приложение не смогут прочитать данные, которые отправляются на обработку. Источник...