12か月 に掲載 東京
東京
12か月 に掲載

Job Summary

English follows Japanese.

近年、各企業においてデジタルトランスフォーメーションが加速し、ビジネスモデルやITシステムが急速に変化する中、当社では、よりお客様にフォーカスし、迅速に価値あるサービス提供を行うべく、データの重要性に着目し、データの利活用を推進したいと考えております。

この点、データエンジニアリングの観点からIT部門では、レガシーとなりつつあるオンプレミスの各種データ基盤をクラウドに再構築・統合し、社内外様々なデータソースをシームレスにつなぐ新しいデータ基盤(データハブ)をクラウド上に構築を進めています。

本ロールは、ビジネスニーズにより迅速に応えていくため、構築したデータ基盤を活用し、データ要件を実装し、デリバリーを推進するデータ・エンジニアのポジションとなります。

このポジションは、以下のいずれかの技術領域の経験を有する方に適しています。

  • データ・インジェスト開発
  • BI / データウェアハウス開発

データ・エンジニア・ロール

  • データ・インジェスト開発 - ビジネスケースに従って、社内外に存在する様々なデータをクラウド上のデータレイクや各種データシステムに取り込むパイプラインを開発します。データには構造化・セミ/非構造化データがあります。また、取り込み頻度としてはバッチ/リアルタイムがあります。
  • BI / データウェアハウス開発 – 全社BIプラットフォームオーナーとして、ビジネスケースに従って、データハブに取り込まれた大量データを、ビジネスアナリストが利用できる形にデータウェアハウス上でデータ加工し、BIツールを使ってレポート・ビジュアリゼーションの作成、またはユーザーによる作成の支援を行います。加えて、データ利活用の促進の観点から、ユーザーが自由にアクセス・利用できるデータを提供する、「データのセルフサービス化」の推進を担っていただきます。
  • 候補者のこれまでの経験を勘案し、上記いずれかのロールでの採用となります。
  • 以下は、上記各ロールに共通の内容となります。
  • IT部門内の様々なチームと密接に連携し、デリバリーの成功に貢献します。以下、連携の一例になります
    • データ・アナリストからの要件を受け、設計・開発作業を行う
    • データを利用するアプリケーション開発チームと連携し、依存関係やインターフェースの整理、テスト支援等を実施
    • インフラチームと連携し、PaaSサービスを構築する
    • アジャイル・デリバリー・モデルの下、スクラムマスターと連携し、機動的かつ持続的なリリースを遂行する
  • プロジェクトにおいて、各種管理業務を行う(スケジュール、ベンダー、担当領域の予算管理等)
  • ソリューション定義 – エンジニア一人ひとりがレベルに応じたソリューションやアーキテクチャをデザインする
  • 担当するデータ関連システムのカレンシーを管理し、担当システムのITセキュリティリスクが適切にコントロールされた適切な状態を保つ

チームは、オフショアサイトも含め、マルチナショナルなメンバーで構成されているチームです。多様性を受け入れ、一人一人の違いを大切にする環境を目指しています。

フレキシブルな勤務時間、在宅とオフィスのハイブリッド勤務体制を敷いています。ご応募お待ちしております!

With the acceleration of digital transformation (DX) and rapid changes in business models and IT systems at firms nowadays, we are focusing on the importance of data and promote the utilization of data to provide more value to our customers with speed.

In this regard, from a data engineering perspective, the IT organization is rebuilding and integrating various on-premise data infrastructures, which are becoming legacy, into the cloud, and is building a new data infrastructure (data hub) in the cloud that seamlessly connects various internal and external data sources.

This role is for a Data Engineer who has a proven track record of implementing data requirements and drive delivery by leveraging the cloud data to respond more quickly to business needs.

This position is suitable for candidates with experience in one of the following technical areas

  • Data ingestion development
  • BI / Data Warehouse Development

Roles of Data Engineer

  • Data Ingestion Development – Develop pipelines to bring in various data, both internal and external, into data lakes and various data systems in the cloud, according to the business case. Data can be structured/semi/unstructured data with a frequency of batch/real-time ingestion.
  • BI / Data Warehouse Development – As an owner of the company-wide BI platform, with large amount of data that is ingested into the data hub, transform the data on the data warehouse into data marts that can be consumed by business analysts and create reports and visualizations using BI tools. In addition, the candidate will be responsible for promoting “data self-service,” which enables business users to retrieve the data by themselves at any time, from the perspective of promoting data utilization.
  • The individual will be responsible for either of the above two, taking into consideration their experience and tech-background
  • The followings are common to the above two roles.
  • The individual will work closely with related parties within the IT organization to contribute to the success of the delivery. E.g.
    • Closely working with data analysts for business cases
    • Work with application development teams that use the data to sort out dependencies and interfaces, support them do testing, etc.
    • Work with cloud infrastructure teams to provision necessary PaaS services
    • Under the Agile delivery model, work with the Scrum Master to execute agile and sustained delivery
  • Project managements (schedule, vendor, budget management for assigned areas, etc.)
  • Solution Definition – Design solutions and architectures for the tech-area that the individual will be in-charge of
  • Manage the system currency of owned systems and ensure that the IT security risks of the systems are properly controlled.

The team is a multinational team, including members from offshore sites. We strive to create an environment that embraces diversity and values each individual’s differences.

We offer flexible work hours and a hybrid work from home and office structure. We look forward to hearing from you!

Responsibilities

このポジションは以下の職責を担います。

  • ビジネス要件の実装・デリバリー
  • アジャイル・デリバリー・モデルにおけるデリバリーチームのDeveloper
  • 担当領域のソリューション定義、アーキテクチャのデザイン
  • 他チームとのコラボレーション、開発案件のリード
  • ベンダーサポート
  • チェンジ・リリース管理。当社プロセスに即した、移行計画の立案、CAB
  • インシデント・障害対応(エンジニアリングとしてのL2サポート)
  • プロジェクトにおける各種管理 (レポーティング、スケジュール、予算、ベンダーマネジメント(オフショアサイト含む)等)
  • グローバルのIT戦略へのアラインメント、メットライフ・グローバル、またはリージョナルチームとのコラボレーション

The successful candidate will be responsible for the followings:

  • Implementation and Delivery of Business Requirements
  • Development of the delivery team in an agile delivery model
  • Solution and architecture design for assigned tech-area
  • Collaborate with other teams and lead development projects
  • Support/help vendors to develop with company’s domain knowledge
  • Change and release management, release planning and CAB
  • Incident and troubleshooting (L2 support as engineering)
  • Project management as tech-lead (reporting, schedule, budget, vendor management (including offshore sites), etc.)
  • Alignment with global IT strategy, collaboration with MetLife global and regional teams

Requirements (Experience, Skills, Education)

経験 (以下のいずれか3個以上の経験を有する):

  • 5年以上のデータエンジニアリング経験、または5年以上のアプリケーション開発経験
  • 5年以上のデータハブ開発経験 (Data Lakeへのデータの取り込みやデータの加工)
  • 5年以上のBIデータクレンジング、レポート(ビジュアリゼーション)開発経験
  • 5年以上のデータウェアハウスを使ったギガバイト以上のデータセットを扱った大規模データモデリング経験
  • 3年以上のアジャイル、スクラム、セイフといった手法での開発経験もしくは参加経験
  • 3年以上のクラウドベースのアプリケーションまたはデータプラットフォーム開発

スキルセット(以下のいずれか3個以上に該当すること):

  • Cloud Platform (Azure, AWS, GCP)
  • PaaS Services (Azureはプラス, ADLS, ADF, SQL Database, Synapse Pipeline / Dedicated Pool / Synapse Spark, Cosmos DB, Cognitive Search, Azure ML, AKS等)
  • Spark
  • PL SQL / Transact SQL. RDBMS (Oracle, SQL Server)
  • BI (Power BIはプラス)
  • ETL (Informatica)

言語

  • 日本語:ネイティブ/流暢(会話だけでなく読み書きも不自由なくできること)※JLPT N1相当
  • 英語:ビジネスレベル

Experience (with 3 or more of the following):

  • 5+ years of data engineering experience or 5+ years of application development experience
  • 5+ years of data hub development experience (getting data into Data Lake and/or processing data)
  • 5+ years BI data cleansing and report (visualization) development experience
  • 5+ years of large-scale data modeling experience working with gigabyte+ data sets using data warehouse
  • 3+ years of experience developing or participating in Agile, Scrum, or SAFe
  • 3+ years cloud-based application or data platform development

Skills (with 3 or more of the following):

  • Cloud Platform (Azure, AWS, GCP)
  • PaaS Services (Azure is a plus. ADLS, ADF, SQL Database, Synapse Pipeline / Dedicated Pool / Synapse Spark, Cosmos DB, Cognitive Search, Azure ML, AKS etc.)
  • Spark
  • PL SQL / Transact SQL. RDBMS (Oracle, SQL Server)
  • BI (Power BI is plus)
  • ETL (Informatica)

Language

  • Japanese: Native / Fluent (both verbal and written), JLPT N1 or equivalent for foreign nationals
  • English: Business

Preferable

  • 非構造化データ、リアルタイムデータ、SFDCデータのデータレイクへの取り込み
  • IT/Data関連プロジェクトにおけるリード経験(2-3名の小規模チームで可)
  • DL(Deep Learning)モデルの理解
  • Generative AIを使ったユースケースの立案や評価、Pilot
  • オフショアチームとの協業経験
  • 生命保険業界の知識
  • Ingestion of unstructured data, real-time data, and SFDC data into the data lake
  • Experience of leading IT/Data related projects with 2-3 members
  • Understanding of DL (Deep Learning) models
  • Planning, evaluating and piloting use cases using Generative AI
  • Experience working with / managing offshore teams
  • Knowledge for Life Insurance

職務レベル

3. シニアレベル

今すぐ応募する
有効なメールアドレスを入力してください。