К реальным собесам
Реальный собесFlameTree2026-04-14

FlameTree Technical: Agents, NLP, LLM и Python backend

Технический собес с вопросами по LLM/tokenization, замене open-source моделей, pytest fixtures и Docker multistage build.

Таймлайн собеседования

Компактный список вопросов и задач по ходу записи: раскрывайте только нужные детали.

00:00:48-00:05:42Behavioral

Расскажите про последние ML/NLP проекты

00:05:42-00:07:30Вопрос

LLM использовалась для внешних клиентов или внутренних процессов

00:07:30-00:09:06Вопрос

Как LLM работает на инференсе

00:09:06-00:10:13Вопрос

Как происходит autoregressive generation следующего токена

00:10:13-00:11:10Вопрос

Как работает токенизатор и зачем его обучать

00:11:29-00:12:25Вопрос

Как проверить, стоит ли менять LLM на новую open-source модель

00:13:12-00:20:21Вопрос

Что такое agent и из каких компонентов он состоит

00:20:21-00:22:18Вопрос

Какие техники prompt engineering используешь

00:22:18-00:24:15Вопрос

Как вы fine-tuned модель и как применяли LoRA adapters

00:24:15-00:25:16Вопрос

Технические детали LoRA и зачем она нужна

00:25:16-00:30:28Вопрос

Что такое quantization, зачем нужна и какие бывают методы

00:30:28-00:33:17Вопрос

Расскажи SOLID: какие принципы и в чем заключаются

00:33:17-00:34:10Вопрос

В каком порядке выполняются несколько decorators у функции

00:34:10-00:35:20Вопрос

Зачем нужна async в Python и как она работает

00:35:20-00:37:43Вопрос

Что такое async Lock, Event и Semaphore

00:37:43-00:41:43Вопрос

Чем отличается multithreading от multiprocessing

00:41:43-00:42:20Вопрос

Для чего нужны pytest fixtures и какие бывают scopes

00:42:44-00:43:47Вопрос

Чем отличается git merge от rebase

00:43:47-00:44:20Вопрос

Для чего нужен Docker multistage build

00:45:20-00:52:13Вопрос

Какие Linux-команды используешь на сервере для навигации, поиска и диагностики

00:52:13-00:55:00Behavioral

Вопросы к интервьюеру про команду, задачи и roadmap

Выводы и как готовиться

  • По LLM нужно уметь объяснять базовые компоненты: tokenizer, generation loop, KV cache и evaluation.
  • Замена модели в production требует offline eval, performance tests и canary/A-B, а не только leaderboard.
  • Backend-вопросы часто проверяют production hygiene: tests, Docker, dependency boundaries.