Привет!
Честно говоря, ещё год назад я был скептично настроен по отношению к AI, точнее, к большим языковым моделям, LLM, считая это тупой (во всех смыслах) игрушкой.
Теперь же я использую ИИ практически каждый день для самых разных задач. Реже всего, как ни странно, для написания кода, там свои приколы и локальные модели очень сильно тупят. А тратить деньги на Pro-тарифы Claude/ChatGPT я не хочу. Но даже бесплатно можно найти кучу применений, об одном из которых сейчас расскажу.
Когда я приехал в Сербию, то оказалось, что самая большая проблема — незнание мной местного языка. Нативный русский и отличный английский помогают слабо в повседневной жизни. Пофиг, что ты можешь часами болтать с американцами на рабочих созвонах, если в супермаркете приходится тыкать пальцем в нужный кусок колбасы и говорить “ова” (”это”).
Поначалу я пробовал программы типа Ling, его Премиум полностью бесплатный, если само приложение бесплатное. Поначалу пробовал Duolingo, там нет сербского, только хорватский, и, казалось бы, разницы не должно быть, но нет: те же месяцы в году называются по-разному.
Минус всех Дуолингоподобных приложений в том, что они не объясняют правила, только натаскивают на конкретные фразы и предложения, причём только те, что выбраны авторами под конкретные ситуации (”Магазин”, “Аэропорт”…).
Другой вариант — взять учебник и начать прям учить-учить. Хороший, академический подход, но он не решает ежеминутных проблем. Иными словами, вы приходите в магазин, чтобы купить картофель, открываете учебник, ищете раздел “продукты” и начинаете листать всё подряд в надежде, что на восьмой странице будет-таки эта сраная картошка.
Вот для достижения “мгновенного” эффекта я и использую LLM в последнее время. Почему я вынес в заголовок слово “Разговорник”, потому что при общении с LLM есть возможность уточнить свой запрос и получить более точный ответ. В разговорнике есть популярные фразы, но чтобы сделать что-то кастомное, придётся собирать предложение из кусочков, как LEGO. С языковыми моделями всё проще.
Рассмотрим ситуацию с покупкой картофеля. Я задал несколько вопросов разным моделям: Claude, ChatGPT и Gemma 2 (27B), последняя запускалась локально на Macbook Pro M3 Pro.
Claude 3.5 Sonnet
Очень хороший ответ, но не хватает ударений. Уточняем:
А что, если картофеля нет? Узнаем у Claude, как мне может ответить продавец и как спросить “когда привезут”:
Здесь уже и ударения на месте, и фразы, кажется, похожи на правдивые.
Капитан Очевидность подсказывает о главной проблеме LLM: не обладая знаниями в предметной области, очень сложно понять, когда нейронка тебя обманывает.
ChatGPT 4o-Mini
“Гопота” доступна без регистрации и смс (возможно, не в России).
Спрашиваем про картошку:
Опять не хватает ударений! Уточняем:
При разыгрывании ситуации с отстутсвием картофеля, ChatGPT опять забывает про ударения и в целом даёт более краткий ответ:
Gemma 2 27B
Локальная модель выжрала 33 гигабайта оперативной памяти (из 36 доступных) и не смогла правильно понять мои требования по ответу и контексту вопроса (хорошо, если бы она отвечала мне на русском с вкраплениями сербского там, где надо).
В целом, то, что в скобках, похоже на правду и, сказав эти фразы, меня поймут, но качество ответа в целом отстойное. Это вообще не значит, что на оффлайн-моделях можно ставить крест, они офигеть как удобны в других ситуцаиях, но об этом в другой раз.
Выводы
Где-то уже неделю я вне дома использую Claude и ChatGPT перед тем, как что-то узнать или купить, и подобные ситуации стали менее стрессовыми. Значит ли это, что я параллельно учу язык? Кажется, что нет, это всё ещё краткосрочная память и сиюминутные ситуации. Но можно спокойно этим пользоваться, пока параллельно учишь язык по учебникам.