Давай ещё раз про созвоны

Давай ещё раз про созвоны

Я не планирую новые дела «на сегодня». Новое — только с завтрашнего дня. Это даёт мне шанс выполнить сегодняшний план. Если сегодняшний день не защитить от вторжения новых дел, такого шанса не будет. (Книга Марка Форстера «Сделай это завтра».)

Я не отвечаю на сообщения до 14. И не ставлю встречи до 14 с редкими исключениями. Это даёт мне шанс сделать что-то своё, что важно сделать именно мне. Другого способа у меня нет, проверял. В проекте может быть жопа, а я всё равно не отвечу — проектов много, а жизнь одна.

У тебя один проект или, может, два-три. У меня пять-десять. Ты можешь в какой-то момент мобилизоваться и отдать проекту больше сил. Я могу только «ходить по клеточкам», строго в рамках своего расписания и правил. Если я сломаю свой режим работы — сломаются сразу все проекты.

К тому же я старый.

Поэтому твой план, который подразумевает, что я приму работу в день, когда ты её впервые покажешь — сломан изначально. Даже если в работе всё хорошо (а там обычно не всё хорошо).

Единственный способ гарантированно получить ответ — забить встречу. «На завтра», или сразу на пару дней в течение недели.

Да чёрт с ним, можно и «на сегодня», прямо с утра, прямо в календаре — вдруг я смогу. В чате не отвечу, а встречу подтвердить или отбить это ок, потому что там невозможен какой-то последующий диалог.

Второй по верности способ — спросить «когда ждать ответа», получить обещание и если я не сделаю — медленно уничтожать меня, пока я всё не выполню.

А отправить ссылку в чат и ждать, что я сразу же посмотрю, или не забуду посмотреть потом — это способ не получить ответ.

Аврора Харли написала о непредсказуемой работе крестиков, закрывающих окна с формами.

Если пользователь открыл модальное окно с формой и что-то в ней изменил, становится непонятно, что произойдёт, когда он нажмёт на крестик. Сохранятся изменения или пропадут? В разных продуктах крестик ведёт себя по-разному.

Чтобы продукт вёл себя предсказуемо:

1. Запрашивайте подтверждение перед деструктивным действием, когда могут пропасть пользовательские данные. Например, если пользователь закрывает фильтр, не применив его, отобразите диалоговое окно: «Вы хотели бы применить фильтр перед возвращением в список товаров? Да / Нет».

2. Замените крестик на текстовую кнопку, которая чётко даст понять, что произойдёт: отмена или закрытие.

3. По умолчанию проектируйте так, чтобы пользователь не терял данные, нажимая на крестик. Например, в окне с формой нового письма в Gmail это действие приводит к сохранению черновика письма и закрытию окна.

https://ux.pub/otmenit-ili-zakryt-dizayn-neodnoznachnyh-deystviy/

В прошлых уроках я показывал как взять данные с сайта и вставить их в Скетч

На основе тех же данных можно быстро собрать прототип.

В современном JS для этого есть шаблонизируемые строки, их ещё называют «бэкти́ки» — по типу кавычек, в которые они берутся. Для простых прототипов больше не нужно искать фреймворки и шаблонизаторы. Если вы можете сверстать один элемент — вы можете легко сверстать и список на реальных данных.

Статья на Медиуме: https://medium.com/p/3153e280cfbf

Пример кода: https://codepen.io/detepr/pen/dmxYyX

Скринкаст: https://www.youtube.com/watch?v=gw-EaA2xAgc&t=25s

Очень близкая мне статья про сторифреймы

Да, так и нужно начинать работу над текстом нового продукта и информационным дизайном в целом. Представляем, что пользовательский сценарий — это диалог. Прописываем его в виде реплик. Голос приложения — это продавец-консультант. Голос пользователя — это его внутренняя речь.

— Так, и что тут у вас?
— А вот поглядите, можно сохранять любимые места из книг.
— Хм... а из электронной можно?
— Можно, хотите загрузить?
— Да. Ок загрузил, а где теперь найти?
— А вот, посмотрите в ленте.

Дальше разбираем, какие экраны и элементы нам нужны, чтобы реплики консультанта «зазвучали». И сразу будет понятно, как именно нужно обращаться к пользователю на этих экранах и элементах.

Главное не забывать, что внутреннюю речь пользователя мы только предполагаем. В реальности всё не так. Её нужно проверять ю-тестами, в идеале — с реальным «мышлением вслух».

Зато потом каждый сценарий будет последовательной и логичной историей. И вам не придется придумывать, что писать на очередной подсказке, и гадать, нужна ли она вообще

Впечатления от станции

На конференции были специальные зоны, в которых можно было пообщаться с Алисой. Хочу поделиться своими впечатлениями об интерфейсе и пользовательском опыте.

Самое главное отличие Яндекс Станции от конкурентов — её можно подключить к телевизору, и если опыт общения с голосовым помощником у нас уже есть (Siri, Google Assistant), то как будет выглядеть взаимодействие с голосовым ассистентом, который в тоже время имеет визуальный интерфейс? Очень интересно.

Итак, интерфейс подключенной к телевизору Алисы внешне очень напоминает интерфейс любого умного телевизора, все что показано на экране и не является контентом — это и есть кнопки. Если можно листать далее, то на кнопке так и написано «далее», получается, это даже не кнопка — а подсказка к вашей команде. Например, если мне нужно выбрать третий фильм в списке, то на карточке с фильмом так и будет написано — «3».

Мне кажется, что когда подобное взаимодействие станет чем-то обыденным — такие подсказки перестанут быть нужны, как в свое время отпала нужда в скевоморфизме — все выучили, что кнопка это кнопка, и её больше не нужно было отрисовывать как реальную кнопку со всеми тенями.

Во время демонстрации мне особенно интересно было узнать, как Алиса обрабатывает ошибки, ведь если по голосу она меня не поняла, то ввести более точный запрос у меня никак не получится. Парень, проводящий демонстрацию, показал это на примере вопроса о погоде на марсе — Алиса просто не смогла ответить, сказала, что не знает. Тогда я спросил у неё «а в москве?» и она поняла контекст — дала прогноз погоды по Москве. Это здорово.

Дальше, я хотел выяснить как она понимает, где показывать мой запрос — на ютубе, на кинопоиске или амедиатеке. Парень попросил Алису показать котиков, и она открыла ютуб. Но я решил дать запрос посложнее и попросил показать мне видео Усачева — Алиса также открыла ютуб, но выборка была не самой очевидной — какие-то рандомные видео из ютуба с непонятными людьми (хотя по идее канал Руслана Усачева один из топовых). А если я имел в виду писателя? По итогу, мне было не очень понятно, как Алиса выбирает место поиска, и как мне уточнить какой-нибудь сложный запрос.

В итоге, чувак, проводящий демонстрацию, поделился тем, как они думают обходить ограничения голосового ввода — есть вариант подружить Алису с пультом от телевизора, либо встроить навигацию прям в мобильное приложение.

Еще, как мне кажется, очень важно, чтобы такие интерфейсы давали быструю обратную связь — ведь у нас нет физического контакта, зато есть паттерн общения в диалоге, и если наш собеседник будет тупить — это испортит все взаимодействие. У Алисы пока с этим все в порядке.

Это все очень интересно — новый опыт взаимодействия с цифровыми продуктами, другая степень абстракции, когда не надо искать необходимую функцию, а можно напрямую её вызвать. Как сказал Аркадий Волож, прогресс неостановим — уже через несколько лет это станет стандартом.

А как вам Яндекс Станция?

Меньше шума

Меньше шума

Несколько лет назад в каком-то хипстерском медиа типа the Village вышла статья про странный эксперимент.

Девушка рассказывала, что её выстёгивает от визуального шума вокруг. Даже когда ты принимаешь душ, бутыльки с мыльными жижами что-то тебе втирают.

Она настолько упоролась, что отодрала этикетки со всего в ванной комнате.

«Вау» — подумал я, вот это настоящие проблемы первого мира → и пошёл их решать у себя.

С того момента, я периодически убираю этикетки с ёмкостей, если это несложно.

Сегодня вспомнил про это, когда наткнулся на твит дизайнера Твиттера — so meta — где она рассказывала: как закрашивала ДОВОЛЬНО БОЛЬШОЕ лого на велосипеде 🙃

Потому что она — дизайнер, и её сводят с ума мелкие детали, о которых не подумали в достаточной степени