Следующей ступенью, конечно, будет способность отклоняться от сценария — то есть та самая свобода, о которой идет речь в вопросе. При проведении теста Тьюринга нашли много изобретательных способов обмануть человека в беседе с машиной. Например, компьютер может менять тему или отказываться отвечать на вопросы, притворяясь человеком, которому это сложно или не очень хочется. Так вот, нужно обязательно уточнить, что я имею в виду «честную» беседу компьютера с человеком на различные темы, без увиливаний и прочих трюков. Здесь у компьютера вряд ли бы что-то вышло. Некоторые производители уже пытались решить эту задачу, позволив ассистенту прочитать беседы людей в интернете и обучиться на них. Результаты были довольно неожиданными для создателей — можно вспомнить историю с ботом Tay, который Microsoft поселила в твиттере пару лет назад.
Комментариев нет:
Отправить комментарий