«Сегодня, когда люди хотят поговорить с любым цифровым помощником, они думают о двух вещах: что я хочу сделать и как это сделать. Я формулирую свою команду, чтобы это сделать, — говорит Субраманья. — Я думаю, что это очень неестественно. Когда люди разговаривают с цифровыми помощниками, возникает огромная когнитивная нагрузка; естественный разговор — это один из способов избавиться от когнитивной нагрузки ».
Сделать разговоры с Ассистентом более естественными означает улучшить его справочное разрешение — его способность связывать фразу с конкретным объектом. Например, если вы скажете: «Установите таймер на 10 минут», а затем скажете: «Измените его на 12 минут», голосовой помощник должен понять и решить, на что вы ссылаетесь, когда вы говорите «это».
В новых моделях NLU используется технология машинного обучения, в частности представления двунаправленного кодера от трансформаторов, или BERT. Google представил эту технику в 2018 году и впервые применил ее в поиске Google. Технология раннего понимания языка использовалась для самостоятельной деконструкции каждого слова в предложении, но BERT обрабатывает взаимосвязь между всеми словами во фразе, значительно улучшая способность определять контекст.
Пример того, как BERT улучшил поиск (как указано здесь), — это когда вы смотрите на «Стоянка на холме без бордюра». Раньше в результатах все еще присутствовали холмы с бордюрами. После включения BERT поисковые системы Google открыли веб-сайт, на котором водителям предлагалось направлять колеса на обочину дороги. Однако BERT не был беспроблемным. Исследования исследователей Google показали, что в этой модели фразы, относящиеся к инвалидности, связаны с негативным языком, что побудило компанию к призыву быть более осторожным с проектами обработки естественного языка.