私たちは広告データ分析系SaaSおよびキャリアプラットフォームのさらなる進化を目指し、データ基盤・分析基盤、LLM/AI基盤の構築・運用を強化し、革新的なプロダクトを支えるため、各種データの収集、加工、品質管理に精通したデータエンジニアを募集いたします。最新クラウド環境での即戦力として、企業の革新と成長を共に牽引できる仲間を歓迎いたします。
データ基盤構築、データ分析基盤運用、LLM/AI基盤開発に携わりたい方、ぜひご応募ください。
▼具体的な業務内容
- 各種データソースからのデータ収集、加工、分析
- データパイプラインの設計、構築、運用、改善
- データウェアハウス、データレイクの設計、構築、運用
- データ品質の監視、改善、データガバナンスの実装
▼上記業務に慣れてきたら以下にもトライいただきたいです
- データ分析基盤の構築支援
- データ可視化支援
- ビジネス部門との連携によるデータニーズの把握、データ活用支援
- ドキュメンテーション、技術共有、チームへの貢献
▼開発環境・技術スタック
- バックエンド:Python, Java, Scala
- データパイプライン関連: Airflow, Spark, Flink
- AI関連: LangChain, OpenAI API
- データベース: SQL, PostgreSQL, MySQL, DynamoDB, Firestore
- インフラ: AWS, GCP, Azure
- その他: Tableau, Looker, Power BI
▼このポジションの魅力
- 大規模データ処理やクラウド環境でのデータ基盤構築、最新AI技術(LLMなど)に実践的に携る事が可能
- 生成AIやLLMを活用したエージェント開発に携わり、実際のプロダクトの進化に貢献できる
- 企業の成長に直結するサービスに貢献ができる
- データパイプラインやデータウェアハウスの設計・運用を通じ、企業の意思決定基盤に携わる事が可能
- Python、Node.js、Airflow、Spark、Flink、Tableauなど、多様な技術を駆使してスキルの幅が広げられる
- 自由度の高い開発環境で新しい技術を試せる
- エンジニアリングとプロダクトの両方の視点を養える
- 迅速かつ効率的なアジャイル開発で即座にアイデアを形にできる
- エンジニア同士の学び合いを大切にする環境
▼求めるスキル・経験
◾️必須スキル
-SQLによるデータ抽出、集計の実務経験 (3年以上)
-PythonもしくはNode.jsのプログラミング経験(2年以上)
-クラウド環境 (AWS, GCP, Azure)でのデータ基盤構築、運用経験 (1年以上)
-データパイプライン構築、運用経験 (Airflow, Spark, Flinkなど)
-データ品質に関する知識、データガバナンスに関する知識
-バージョン管理ツール (Gitなど) の利用経験
-アジャイル開発の経験
◾️歓迎スキル
- APIの設計・開発経験(REST, GraphQL)
- GitHubを活用したチーム開発の経験
- AWS/GCPなどクラウド環境での開発・運用経験
- LangChainやGradioを用いた開発経験
- 生成AI(OpenAI API, Claude, Llamaなど)を活用したシステム開発経験
- LLMファインチューニングやデータパイプラインの構築経験
- DevOpsの知識(Docker, CI/CD, Vercel など)
- ノーコード/ローコードツール(Zapier, Difyなど)の活用経験
▼こんな方を歓迎します!
- 新しい技術に興味を持ち、積極的に学習できる方
- データを用いてビジネス課題を解決したい方
- 自律的にタスクを進め、責任感を持って業務に取り組める方
- コミュニケーション能力が高く、チームメンバーと円滑に連携できる方
- ドキュメンテーションを重視し、知識を共有できる方
▼勤務条件
勤務時間:フレックス/リモート可
稼働時間:160h/月(要相談)
*最低時間は80h /月、土日不可
服装:自由
▼学習支援
- AI関連の有料コミュニティや書籍・講座の購入費支援
- 有料LLM APIの試用補助
- AIツール(github Copilot,Cursor,Cline,windsurfなど)補助
▼応募方法
- カジュアル面談も可能です。少しでも興味があれば、お気軽にご応募ください!