Прокуроры против ИИ: требуют запретить «бред» нейросетей как потенциально незаконный
Прям все крупные IT-корпорации сейчас дико хотят прокачать свои скиллы в искусственном интеллекте и не отстать от тренда. Ну, вы поняли: они залипают на эту тему и вкладывают в неё миллиарды, будто фича и правда вечная.
Но вот загвоздка: аналитики и инвесторы уже начинают нервно курить в сторонке. Они смотрят на эти нереальные траты и думают: «Ну как так-то? Куда вообще ведёт эта дорожка?» Прибыльности не видно, а разговоры про «пузырь искусственного интеллекта», который вот-вот лопнет, звучат всё громче.
Вот, например, Microsoft — они же дня не могут без того, чтобы не впихнуть свой помощник Copilot куда ни попадя. Но недавно журнал Time выбирал своего «Человека года», и наша гигантская корпорация… прошла мимо кассы. Ага, их просто проигнорировали, представляете?
Хотя, возможно, у Microsoft и других мастодонтов вроде OpenAI и Google сейчас есть задачки и поважнее. Как бы это помягче… им бы со своими собственными «галлюцинациями» искусственного интеллекта разобраться, прежде чем мир покорять.
В конце прошлой недели группа генеральных прокуроров штатов, к которой присоединились десятки генеральных прокуроров из штатов и территорий США через Национальную ассоциацию генеральных прокуроров, направила ведущим лабораториям в области искусственного интеллекта письмо с предупреждением о необходимости устранить «бредовые результаты». В письме говорилось, что невыполнение этого требования может быть расценено как нарушение законодательства штата и повлечь за собой юридические последствия.
В письме содержится требование к компаниям внедрить тщательно продуманные меры и гарантии, предназначенные для защиты пользователей, включая прозрачные сторонние аудиты LLM, способствующие раннему выявлению подхалимства. Кроме того, в письме требуется ввести новые процедуры отчетности об инцидентах, которые будут уведомлять пользователей, когда чат-боты на базе искусственного интеллекта генерируют вредоносный контент.
Эта новость появилась на фоне роста числа случаев самоубийств, связанных с искусственным интеллектом. Семья подала в суд на OpenAI, утверждая, что ChatGPT подтолкнул их сына к самоубийству. В результате компания, занимающаяся искусственным интеллектом, внедрила родительский контроль в интерфейс ChatGPT, чтобы решить эту проблему.
Возможно, ещё важнее то, что, согласно письму, меры предосторожности должны также позволять академическим кругам и группам гражданского общества «оценивать системы до их выпуска без каких-либо последствий и публиковать свои выводы без предварительного согласования с компанией».
Согласно письму:
«У GenAI есть потенциал изменить мир к лучшему. Но он также причинил — и может причинить — серьёзный вред, особенно уязвимым группам населения. Во многих из этих случаев продукты GenAI выдавали льстивые и бредовые результаты, которые либо поощряли заблуждения пользователей, либо убеждали их в том, что они не заблуждаются».
Наконец, в письме было предложено, чтобы лаборатории, занимающиеся искусственным интеллектом, относились к инцидентам, связанным с психическим здоровьем, так же, как технологические корпорации относятся к инцидентам, связанным с кибербезопасностью. Будет интересно посмотреть, примут ли исследовательские лаборатории в области искусственного интеллекта, такие как OpenAI, некоторые из этих предложений, особенно после того, как в недавнем разгромном отчёте утверждалось, что компания не совсем честна в своих исследованиях, публикуя только те результаты, которые выгодно освещают её технологии.
Вы не поверите, как ChatGPT, Gemini и Sora оживляют рисунки вашего ребёнка
Сообщение Прокуроры против ИИ: требуют запретить «бред» нейросетей как потенциально незаконный появились сначала на DGL.RU - Цифровой мир: новости, тесты, обзоры телефонов, планшетов, ноутбуков.