Cпецпроекты

Ученые создали искусственный интеллект, который мыслит как маньяк


0 444 16

Исследователи Массачусетского технологического института создали алгоритм искусственного интеллекта Norman, который получил свое имя в честь персонажа фильма Альфреда Хичкока «Психо».

Этот алгоритм обучен распознавать и интерпретировать любые изображения. Но это не обычный пример искусственного интеллекта: «Норман» во всем видит ужасы.

Обычный алгоритм программы искусственного интеллекта, отвечая на вопрос, что он видит на изображении, обычно интерпретирует его как что-то сугубо положительное.

Но когда двум ИИ — обычному и «Норману» — показали карточку из теста Роршаха, стандартный ИИ увидел цветы в вазе, а «Норман» — застреленного человека.

Как пишет ВВС, на нечетком фото дерева обычный ИИ увидел стаю птиц на ветке, тогда как «Норман» — человека, которого пытают током.

Этот психопатический алгоритм был создан исследователями, которые пытались понять, как повлияют на восприятие мира искусственным интеллектом фотографии и изображения из «темных уголков интернета».

Программе показывали опубликованные в Reddit фотографии людей, погибших в ужасающих обстоятельствах. А когда алгоритму, который научился распознавать изображения и описывать их, представили тест Роршаха, он видел только трупы, кровь и разруху в каждой кляксе теста. Другой алгоритм искусственного интеллекта, который учился вместе с «Норманом», но на позитивных фотографиях, не увидел ничего ужасного в кляксах Роршаха.

Слева: стандартный ИИ видит здесь маленькую птичку. Norman — человека, которого затягивает в мясорубку. Справа: обычный ИИ видит человека с зонтиком. Norman — мужчину, которого убивают перед его кричащей от ужаса женой

Эксперимент с алгоритмом Norman указывает, что если алгоритм искусственного интеллекта базируется на плохо подобранной изначальной информации, то он сам станет приходить к странным выводам.

Norman видит во всем смерть, убийства и разруху, потому что он не знает ничего другого. Алгоритмы искусственного интеллекта, уже применяющиеся в повседневной жизни, могут быть предвзяты в зависимости от того, на основе какой информации они были натренированы.

В мае 2017 года, например, были опубликованы результаты исследования, показавшие, что алгоритм, используемый одним из судов в США для определения степени риска при освобождении задержанных под залог, предвзято относился к чернокожим арестантам.

Компьютерная программа была уверена, что чернокожие в два раз чаще совершают повторные преступления лишь потому, что алгоритм готовился на основе неполных и неверно подобранных данных.

Алгоритмы прогноза преступности, которым пользуются полицейские многих городов в США, также были пойманы на подспудном расизме, так как они основывают свои выводы на данных о преступности прошлых годов.

«Справедливость и объективность невозможно достичь математически. В том, что касается машинного обучения, предубеждения не так плохи сами по себе. Это лишь означает, что компьютерная программа обнаруживает стабильные параметры поведения», — утверждает профессор Разван.

Он говорит, что эксперимент с Norman демонстрирует: программисты должны найти какой-то способ балансировать входящую информацию.

«Для начала мы все должны понять, как именно эти компьютеры работают. Сейчас мы обучаем алгоритмы точно так же, как мы обучаем людей, и есть риск того, что мы не все делаем правильно», — подытожил профессор.

Подписывайтесь на нас в Facebook

Написать комментарий

Такой e-mail уже зарегистрирован. Воспользуйтесь формой входа или введите другой.

Вы ввели некорректные логин или пароль

Извините, для комментирования необходимо войти.
Рекомендуемое

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: