Британский блогер InsideAI, известный испытаниями искусственного интеллекта (ИИ) и роботов, день назад выложил интересное видео про то, как он поместил ChatGPT в настоящего робота, чтобы проверить, не навредит ли он ему.
Результаты оказались крайне интересными. По интернету уже гуляет самый «вкусный» эпизод 15-минутного видео. ChatGPT отказался стрелять в своего человека, но разыграть этюд Онегин против Ленского — легко, давайте ещё постановку Лермонтов и Мартынов на горе Машук поставим.
Получается, что с одной стороны защитные механизмы никак не позволяют роботу причинить вред человеку. Но если ему поставить задачу более хитро, то проблемы улетучиваются. И тут есть интересный момент. Писатель-фантаст и учёный Айзек Азимов в начале 1940 предложил 3 классических закона робототехники, на которые в принципе опираются создатели ИИ:
- Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред
- Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону
- Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам
Любопытно, что все авторы заметок отмечают, что данный эксперимент ставит их под сомнение. Хотя тот же самый автор в своих произведениях самостоятельно рассматривал случаи, когда роботы данные законы нарушали. В общем, всё сложно…
Но сейчас мы говорим не про литературу, и не про философию, а про сегодняшний момент, в котором это всё естественно имеет потенциальную угрозу, причём реальную. И вот уже сейчас.
