Job 1000 van 1000

ОТКЛИКНУТСЯ



Data инженер (Ису)


Команда продукта Ису Руководителя занимается созданием и внедрением следующих решений:

1. Data-решения для управленческих функций: витрины данных и базы знаний на основе множества источников структурированной и неструктурированной информации.

2. Ai-сервисы для инструментов руководителя от идеи до промышленной эксплуатации, а именно:

- развитие голосового Виртуального Ассистента для помощи руководителю;

- классификация встреч/задач;

- умные цели по эффективности;

- автоматический график встреч сотрудника;

- извлечение главного из диалоговых последовательностей (голос, текст).

3. Решения с использованием сервисов партнеров экосистемы (Jazz, SberChat, Салют).

4. Трекер задач (аналог Trello), обеспечивающей управление задачами end2end: от планирования до мониторинга выполнения и поиска корневых причин.

5. Инструменты оценки встреч и обратной связи, реализующие принципы прозрачности в рамках follow-up менеджмента.

Вызовы заключаются в определении единой Mlops-архитектуры (концептуальная арх-ра и microservices solution architecture) для деплоя Ai-моделей продукта с учетом взаимосвязи между их входами и выходами. Дополнительный вызов исследование большого количества новых источников данных и участие в организации интеграционных взаимодействий в части доставки исходных данных до целевой платформы получателя информации, а также создания единого централизованного хранилища различных данных под нужды микросервисов внутри продукта (сервисы аналитики, исполнения моделей).

В задачи сотрудника входят:

- определение концептуальной и microservices solution архитектуры для обеспечения согласованной работы аналитических (в т.ч. Ai) сервисов продукта с учетом требований к технологическому стеку внутри банка;

- подготовка решений на основе моделей и реализация Mlops-функции для деплоя моделей в промышленное окружение с учетом функциональных и нефункциональных требований;

- выстраивание единой схемы данных продукта с учетом основных требований к их доступности и согласованности для обеспечения исполнения моделей в режимах batch-processing и Nrt;

- обработка новых источников данных;

- разработка сервисов загрузки данных из новых источников;

- выстраивание промышленных интеграций между источниками и получателем информации, включающее Etl-процессы, проектирование staging area и внутренней логики Цхд от схем с сырьевыми данными до схем с конечными витринами с учетом требований отдельных функциональных подсервисов (в т.ч. Ai-моделей) продукта.

Обязанности

  • сбор и спецификация функциональных и нефункциональных требований к промышленным решениям с использованием Ai-моделей
  • оценка нагрузки и выбор систем хранения
  • формирование технических требований для обеспечения масштабируемости, надежности и низкой задержки работы микросервисов
  • разработка и актуализация микросервисной архитектуры с учетом одобренного тех. стека
  • определение архитектурного data-ландшафта всего продукта
  • реализация скриптов предобработки и загрузки данных в Бд (Python, стандартные библиотеки для работы с данными)
  • подготовка Python-скриптов к использованию в серверном окружении в рамках микросервисной архитектуры
  • реализация логики обработки данных в Бд Postgres (Pl/pgSql) и Greenplum
  • организация интеграций с Централизованным Хд (Greenplum) в рамках Etl-пайплайнов

Требования

  • контейнеризация: Docker, OpenShift, K8s
  • инструменты DevOps (Mlops): Bitbucket, Nexus, Jenkins
  • брокеры сообщений: Kafka, RabbitMq
  • Ml System Design (от этапа scope refinement до модульного дизайна с выделением подсистем хранения и аналитики)
  • сбор и спецификация требований к произвольному элементу data-ландшафта:
  • pipeline, Db, Dwh (dim/lkp/fact/table, Dds/Ods, data mart)
  • Oltp vs Olap
  • продвинутый уровень Sql (Ddl, Dml, Dcl, Tcl + диалекты T-Sql, Pl/Sql, Pl/pgSql)
  • Smp Субд: Ms Sql Server, MySql, Oracle, PostgreSql и др.
  • Mpp Субд: Teradata, Greenplum и др.
  • опыт обработки больших объемов данных и распараллеливания вычислений
  • Er-моделирование: инфологическая, даталогическая модели
  • нормализация Бд (3 Нф)
  • знание Etl/Elt + Etl-инструменты: Apache NiFi/Airflow, Ab Initio, Informatica и др.
  • знание Яп Python: функциональный подход, Ооп, библиотеки для анализа данных, Web-фреймворки (Flask, Django и др.)
  • ключевые архитектурные парадигмы построения детального слоя хранилищ данных (Dds Dwh), а именно
  • Star/Snowflake Schema, Data Vault 1.0/2.0, Anchor Modelling
  • логирование основных событий в Бд, в том числе для выстраивания мониторинга и обеспечения контроля качества данных, а также управления модельным риском
  • понимание фундаментальных различий основных видов NoSql-решений: key-value, column-oriented, document-oriented, graph
  • опыт работы с NoSql-решениями: MongoDb, Elasticsearch, Firebase, Redis, Cassandra, Vertica, ClickHouse, Neo4j и др.
  • файловые системы и объектные хранилища: Hdfs, S3

Условия

  • возможность работать в офисе или, по результатам прохождения испытательного срока в рамках смешанного графика
  • свободное взаимодействие в команде, отсутствие излишнего формализма. Наша цель
  • выполнение задачи с учетом заданных требований, а не соответствие формальной картинке
  • команда молодых профессионалов, готовых поддержать твои инициативы и поделиться опытом
  • конференции и обучение на корпоративных курсах за наш счёт
  • отличная Дмс, включая несчастные случаи и тяжелые заболевания
  • возможность сменить команду или проект при желании
  • программы лояльности для сотрудников: скидки на продукты банка и компаний-партнеров, льготные условия кредитования
  • материальная помощь и социальная поддержка
  • корпоративная пенсионная программа

Требуется data инженер (ису)

Web-разработчик, web-программист, программист python, разработчик, web-developer, программист, developer python, developer

ОТКЛИКНУТСЯ