«Сегодня, когда люди хотят поговорить с любым цифровым помощником, они думают о двух вещах: что я хочу сделать и как это сделать. Я формулирую свою команду, чтобы это сделать, — говорит Субраманья. — Я думаю, что это очень неестественно. Когда люди разговаривают с цифровыми помощниками, возникает огромная когнитивная нагрузка; естественный разговор — это один из способов избавиться от когнитивной нагрузки ».
Сделать разговоры с Ассистентом более естественными означает улучшить его справочное разрешение — его способность связывать фразу с конкретным объектом. Например, если вы скажете: «Установите таймер на 10 минут», а затем скажете: «Измените его на 12 минут», голосовой помощник должен понять и решить, на что вы ссылаетесь, когда вы говорите «это».
В новых моделях NLU используется технология машинного обучения, в частности представления двунаправленного кодера от трансформаторов, или BERT. Google представил эту технику в 2018 году и впервые применил ее в поиске Google. Технология раннего понимания языка использовалась для самостоятельной деконструкции каждого слова в предложении, но BERT обрабатывает взаимосвязь между всеми словами во фразе, значительно улучшая способность определять контекст.
Пример того, как BERT улучшил поиск (как указано здесь), — это когда вы смотрите на «Стоянка на холме без бордюра». Раньше в результатах все еще присутствовали холмы с бордюрами. После включения BERT поисковые системы Google открыли веб-сайт, на котором водителям предлагалось направлять колеса на обочину дороги. Однако BERT не был беспроблемным. Исследования исследователей Google показали, что в этой модели фразы, относящиеся к инвалидности, связаны с негативным языком, что побудило компанию к призыву быть более осторожным с проектами обработки естественного языка.
Но с моделями BERT, которые теперь используются для таймеров и будильников, Субраманья говорит, что Ассистент теперь может отвечать на связанные запросы, такие как вышеупомянутые настройки, с почти 100-процентной точностью. Но эта превосходная контекстная понимание пока работает не везде — Google утверждает, что медленно работает над добавлением обновленных моделей к большему количеству задач, таких как напоминания и управление устройствами умного дома.
Уильям Ван, директор группы обработки естественного языка Калифорнийского университета в Санта-Барбаре, говорит, что улучшения Google радикальны, особенно с учетом того, что применение модели BERT к пониманию устной речи «не очень простое дело».
См. «Что дальше в технологиях» в бюллетене Fast Forward Newsletter
От искусственного интеллекта и беспилотных автомобилей до трансформированных городов и новых стартапов — подпишитесь на последние новости.
«Во всей области обработки естественного языка после 2018 года, с Google представляет это В модели BERT все изменилось », — говорит Ван. «BERT действительно понимает, что естественно следует из одного предложения в другое и каковы отношения между предложениями. Вы изучаете контекстное представление слова, фраз, а также предложений, поэтому по сравнению с предыдущей работой до 2018 года это намного эффективнее ».
Большинство этих улучшений можно отнести к таймерам и будильникам, но вы увидите общее улучшение способности голосового помощника в широком смысле понимать контекст. Например, если вы спросите, погода в Нью-Йорке, а затем зададите такие вопросы, как «Какое здесь самое высокое здание?». и "Кто это построил?" Ассистент продолжит отвечать, зная, в какой город вы ссылаетесь. Это не совсем что-то новое, но обновление делает Ассистента еще более искусным в решении этих контекстных головоломок.
Имена помощников учителя
Видео: Google
Ассистент теперь лучше понимает уникальные имена. Если вы пытались позвонить или отправить текст кому-то с необычным именем, есть большая вероятность, что потребовалось несколько попыток или вообще не сработало, потому что Google Assistant не знал правильного произношения.