見出し画像

データサイエンティストスキルチェックリストver2017

データサイエンティスト協会のスキルチェックリストver2017はエクセルにないので、文字に起こしました。
以下の文書をコピーして、#(シャープ1つ)をタブに置換したらエクセルでテーブルとしてきれいに使用できます。フィルターなど、お好きにお使いください。

スキルチェックリスト    2017年    改訂版 <ビジネス⼒>########
▼ 他分野寄りのスキル########
NO#"Sub
No"#スキルカテゴリ#スキルレベル#サブカテゴリ#チェック項目#DE#DS#"必須
スキル"
1#1#⾏動規範#★#ビジネスマインド#"ビジネスにおける論理とデータの重要性を認識し、分析的でデータドリブンな考え
⽅に基づき⾏動できる"###◯
2#2#⾏動規範#★★#ビジネスマインド#ビジネスではスピード感がより重要であることを認識し、時間と情報が限られた状況下でも、⾔わば「ザックリ感」を持って素早く意思決定を⾏うことができる###◯
3#3#⾏動規範#★★#ビジネスマインド#作業ありきではなく、本質的な問題(イシュー)ありきで⾏動できる###◯
4#4#⾏動規範#★★#ビジネスマインド#分析で価値ある結果を出すためにはしばしば仮説検証の繰り返しが必要であることを理解し、粘り強くタスクを完遂できる###◯
5#5#⾏動規範#★★★#ビジネスマインド#プロフェッショナルとして、作業量ではなく、⽣み出す価値視点で常に判断、⾏動でき、依頼元にとって真に価値あるアウトプットを⽣み出すことをコミットできる###◯
6#6#⾏動規範#★#データ倫理#データを取り扱う⼈間として相応しい倫理を⾝に着けている(データのねつ造、改ざん、盗⽤を⾏わないなど)###◯
7#7#⾏動規範#★★#データ倫理#チーム全員がデータを取り扱う⼈間として相応しい倫理を持てるよう、適切にチームを管理できる###
8#8#⾏動規範#★★★#データ倫理#データの取り扱いに関する、会社や組織全体の倫理を維持、向上させるために、必要な制度や仕組みを策定し、その運営を主導することができる###
9#9#⾏動規範#★#法令#個⼈情報に関する法令の概要を理解し、守るべきポイントを説明できる###◯
10#10#⾏動規範#★★#法令#担当するビジネスや業界に関係する法令を理解しており、データの保持期間や運⽤ルールに活かすことができる#*##◯
11#11#⾏動規範#★★#法令#個⼈情報の扱いに関する法令、その他のプライバシーの問題、依頼元との契約約款に基づき、匿名化すべきデータを選別できる(名寄せにより個⼈を特定できるも の、依頼元がデータ処理の結果をどのように保持し利⽤するのかなども考慮して)###
12#12#⾏動規範#★★#法令#匿名加⼯情報について理解しており、適切な⽅法で匿名加⼯情報を扱うことができる#*#*#
13#1#論理的思考#★#MECE#データや事象の重複に気づくことができる###◯
14#2#論理的思考#★★#MECE#初⾒の領域に対して、抜け漏れや重複をなくすことができる###
15#3#論理的思考#★★★#MECE#未知の領域であっても、類似する事象の推測などを活⽤し、抜け漏れや重複をなくすことができる###
16#4#論理的思考#★★#データをもとに論理的に捉える#様々なデータや事象を、階層やグルーピングによって、構造化できる(ピラミッド構造)###◯
17#5#論理的思考#★★#データをもとに論理的に捉える#仮説思考を⽤いて、論点毎に分析すべき点を識別できる###
18#6#論理的思考#★★★#データをもとに論理的に捉える#論理的な整理にとらわれず、批判的・複合的な視点で課題を識別できる###
19#7#論理的思考#★#⾔語化能⼒#通常⾒受けられる現象の場合において、分析結果の意味合いを正しく⾔語化できる###◯
20#8#論理的思考#★★#⾔語化能⼒#通常⾒受けられない現象の場合においても、分析結果の意味合いを既知の表現を組み合わせ、⾔語化できる###
21#9#論理的思考#★★★#⾔語化能⼒#データ表現に適した⾔葉がない場合でも、共通認識が形成できるような⾔葉を新たに作り出すことができる###
22#10#論理的思考#★#ストーリーライン#"⼀般的な論⽂構成について理解している
(序論⇒アプローチ⇒検討結果⇒考察や、序論⇒本論⇒結論 など)"###
23#11#論理的思考#★★#ストーリーライン#"因果関係に基づいて、ストーリーラインを作れる
(観察⇒気づき⇒打ち手、So What?、Why So?など)"###
24#12#論理的思考#★★★#ストーリーライン#相手や内容に応じて、自在にストーリーラインを組み上げることができる###
25#13#論理的思考#★#ドキュメンテーション#1つの図表〜数枚程度のドキュメントを論理⽴ててまとめることができる(課題背景、アプローチ、検討結果、意味合い、ネクストステップ)###
26#14#論理的思考#★★#ドキュメンテーション#10〜20枚程度のミニパッケージ(テキスト&図表)、もしくは5ページ程度の図表込みのビジネスレポートを論理⽴てて作成できる###
27#15#論理的思考#★★★#ドキュメンテーション#30〜50枚程度のフルパッケージ(テキスト&図表)、もしくは10ページ以上のビジネスレポートを論理⽴てて作成できる###
28#16#論理的思考#★#説明能⼒#報告に対する論拠不⾜や論理破綻を指摘された際に、相手の主張をすみやかに理解できる###◯
29#17#論理的思考#★★#説明能⼒#論理的なプレゼンテーションができる###◯
30#18#論理的思考#★★★#説明能⼒#プレゼンテーションの相手からの質問や反論に対して、説得⼒のある形で回答できる###◯
31#1#プロジェクトプロセス#★#基礎知識#目的やゴールの設定がないままデータを分析しても、意味合いが出ないことを理解している###◯
32#2#プロジェクトプロセス#★#基礎知識#課題や仮説を⾔語化することの重要性を理解している###◯
33#3#プロジェクトプロセス#★#KPI#⼀般的な収益⽅程式に加え、自らが担当する業務の主要な変数(KPI)を理解している###◯
34#4#プロジェクトプロセス#★★#KPI#自らが関連する事業領域であれば、複数の課題レイヤーにまたがっていても、KPIを整理・構造化できる###
35#5#プロジェクトプロセス#★★★#KPI#初⾒の事業領域であっても、KPIを構造化し、重要なKPIを⾒極められる###
36#6#プロジェクトプロセス#★#課題設定の前提理解#自分の担当する業界について、市場規模、主要なプレーヤー、支配的なビジネスモデル、課題と機会について説明できる###
37#7#プロジェクトプロセス#★★#課題設定の前提理解#事業モデルやバリューチェーンなどの特徴や事業の主たる課題を自⼒で構造的に理解でき、問題の⼤枠を整理できる###
38#8#プロジェクトプロセス#★★★#課題設定の前提理解#領域の主要課題を他領域の課題との連関も含めて構造的に理解でき、問題の⼤枠を定義できる###
39#9#プロジェクトプロセス#★#課題の定義#担当する業務領域であれば、基本的な課題の枠組みが理解できる(調達活動の5フォースでの整理、CRM課題のRFMでの整理など)###◯
40#10#プロジェクトプロセス#★★#課題の定義#取り扱う課題領域に対して、新規課題の切り分けや枠組み化ができる###
41#11#プロジェクトプロセス#★★★#課題の定義#仮説や可視化された問題がなくとも、解くべき課題を構造的に整理でき、⾒極めるべき論点を特定できる###
42#12#プロジェクトプロセス#★#プロジェクト推進#ウォーターフォール開発とアジャイル開発の違いを説明できる#*##
43#13#プロジェクトプロセス#★★#プロジェクト推進#財務会計と管理会計の⼤まかな枠組みを理解し、必要に応じて分析プロジェクト設計ができる###
44#14#プロジェクトプロセス#★★#プロジェクト推進#アジャイル開発体制のポイントを理解した上で、アジャイルな開発チームを⽴ち上げ、推進することができる#*##
45#15#プロジェクトプロセス#★★#プロジェクト推進#類似事例の実績やPoC(Proof of Concept)を適宜利⽤して、プロジェクト計画に関わるステークホルダー間の合意を形成できる###
46#16#プロジェクトプロセス#★★★#プロジェクト推進#期待される成果が達成できないケースを早期に⾒極め、プロジェクトの終了条件をステークホルダーと整理・合意できる###
47#17#プロジェクトプロセス#★★#アプローチ設計#最終的な結論に関わる部分や、ストーリーラインの骨格に⼤きな影響を持つ部分から着手するなど、取り組むべき分析上のタスクの優先度を判断できる##*#◯
48#18#プロジェクトプロセス#★★★#アプローチ設計#他社による模倣を防ぐなど、競争⼒を保つ観点でアプローチの設計ができる(機械化や標準化の範囲を絞るなど)###
49#19#プロジェクトプロセス#★★★#分析価値の判断#プロジェクトの開始時点で、入手可能なデータ、分析手法、インフラ、ツールの⽣み出すビジネス価値の⾒積りをまとめることができる#*#*#
50#20#プロジェクトプロセス#★★★#プロジェクトの評価#分析結果が当初の目的を満たしていない場合に、必要に応じてプロジェクト全体を再設計できる#*#*#◯
51#1#データ入手#★#データ入手#仮説や既知の問題が与えられた中で、必要なデータにあたりをつけ、入手できる#*#*#◯
52#2#データ入手#★#データ入手#現場に出向いてヒアリングするなど、⼀次情報に接することの重要性を理解している#*##
53#3#データ入手#★★#データ入手#自⾝が担当するプロジェクトやサービスを超えて、必要なデータのあたりをつけることができる#*#*#
54#4#データ入手#★★★#データ入手#組織全体及び関連する社外のデータを⾒渡して、必要なデータのあたりをつけることができる#*#*#
55#1#データの理解・検証#★#ビジネス観点#ビジネス観点で仮説を持ってデータをみることの重要性と、仮説と異なる結果となったときにそれが重⼤な知⾒である可能性を理解している###◯
56#2#データの理解・検証#★★#ビジネス観点#統計手法による閾値に対してビジネス観点で納得感のある調整ができる(年齢の刻み、商品単価、購入周期を考慮した量的変数のカテゴライズなど)##*#
57#3#データの理解・検証#★★★#ビジネス観点#分析プロセス全体を通して常時、ビジネス観点での妥当性をチェックし、データから得られた⽰唆が価値ある知⾒であるか都度判断できる###
58#1#意味合いの抽出、洞察#★★★#開⽰#担当および関連する分析プロジェクトのデータ、分析結果を顧客、外部に開⽰すべきか判断できる###
59#2#意味合いの抽出、洞察#★★#洞察#ビジネス上の意味を捉えるために、特異点、相違性、傾向性、関連性を⾒出した上で、ドメイン知識を持つ⼈に適切な質問を投げかけられる##*#
60#3#意味合いの抽出、洞察#★★#洞察#データの特徴を⾒て意味合いの明確化に向けた分析の深掘り、データ⾒直しの⽅向性を設計できる#*##
61#4#意味合いの抽出、洞察#★★#洞察#分析結果を眺め、起きている事象の背景や意味合い(真実)を⾒ぬくことができる#*##
62#5#意味合いの抽出、洞察#★★#評価#担当する分析プロジェクトの分析結果を⾒て検討目的と合っているか再評価できる##*#◯
63#1#解決#★★#総合的評価#適⽤される業務内容に応じて、モデルの総合的な評価ができる##*#
64#2#解決#★★#提案#分析的検討に基づき、担当業務に対する必要なアクション、改⾰案を整理して結論を導くことができる###
65#3#解決#★★★#提案#分析的検討に基づき、経営レベルで必要なアクション、改⾰案を整理して結論を導くことができる###◯
66#4#解決#★★★#提案#データを利活⽤した持続性のある事業モデルを設計できる###
67#1#事業に実装する#★★#実装#現場に実装する際、現場での実⾏可能性を考慮し適切に対応できる#*##
68#2#事業に実装する#★★#実装#担当する案件が予算内で解決するように取り組みをデザインし、現場に実装できる#*##
69#3#事業に実装する#★★★#実装#費⽤対効果、実⾏可能性、業務負荷を考慮し事業に実装ができる#*##
70#4#事業に実装する#★★#異分野とのコミュニケーション#異なるスキル分野の専門家や事業者と適切なコミュニケーションをとりながら事業・現場への実装を進めることができる###◯
71#5#事業に実装する#★#モニタリング#結果、改善の度合いをモニタリングする重要性を理解している###◯
72#6#事業に実装する#★★#モニタリング#事業・現場へ実装するにあたりモニタリングの仕組みを適切に組み込むことができる#*#*#
73#7#事業に実装する#★★★#モニタリング#既存のPDCAに新たな仕込みを⾏い、次の改善的な取り組みにつなげることができる###
74#8#事業に実装する#★★★#横展開#特定のビジネス課題に向けた新しいソリューションを個別の現場の特性を考慮し横展開できる#*#*#
75#1#活動マネジメント#★★★#データ倫理#マルウェア、DDoS攻撃などの深刻なセキュリティ攻撃を受けた場合に対応する最新の技術を把握し、対応する専門組織(CSIRT)の構成を責任者にすみやかに提案できる#*##
76#2#活動マネジメント#★#リソースマネジメント#指⽰に従ってスケジュールを守り、チームリーダーに頼まれた自分の仕事を完遂できる###◯
77#3#活動マネジメント#★★#リソースマネジメント#自⾝とチームメンバーのスキルを把握し、適切なプロジェクト管理ができる###◯
78#4#活動マネジメント#★★#リソースマネジメント#担当するプロジェクトで、設定された予算やツール、システム環境を適切に活⽤し、プロジェクト進⾏できる#*#*#
79#5#活動マネジメント#★★#リソースマネジメント#5名前後のチームを設計し、スケジュール通りに進⾏させ、ステークホルダーに対して期待値に⾒合うアウトプットを安定的に⽣み出せる###
80#6#活動マネジメント#★★★#リソースマネジメント#プロジェクトに求められるスキル要件と各メンバーのスキル・成⻑目標・性格をふまえ、現実的にトレードオフ解消とシナジーを狙ったリソースマネジメントができる#*#*#
81#7#活動マネジメント#★★★#リソースマネジメント#プロジェクトメンバーの技量を把握した上で、プロジェクト完遂に必要なツール選定、予算策定、スコープ設定、またはアウトソーシング体制を検討・構築できる#*#*#
82#8#活動マネジメント#★★★#リソースマネジメント#複数のチームを設計し(総合的なプロジェクトマネジメント)、スケジュール通りに進⾏させ、複合的なステークホルダーに対し、期待値を超えたアウトプットを安定的に⽣み出せる#*#*#
83#9#活動マネジメント#★#リスクマネジメント#担当するタスクの遅延や障害などを発⾒した場合、迅速かつ適切に報告ができる###◯
84#10#活動マネジメント#★★#リスクマネジメント#担当するプロジェクトでの遅延や障害などの発⽣を検知し、リカバリーするための提案・設計ができる###
85#11#活動マネジメント#★★★#リスクマネジメント#プロジェクトに何らかの遅延・障害などが発⽣した場合、適切なリカバリー手順の判断、リカバリー体制構築、プロジェクトオーナーに対する迅速な対応ができる###◯
86#12#活動マネジメント#★★#育成/ナレッジ共有#自⾝とチームメンバーのスキルを⼤まかに把握し、担当するプロジェクトを通してチームメンバーへのスキルアドバイスやスキル成⻑のための目標管理ができる#*#*#
87#13#活動マネジメント#★★#育成/ナレッジ共有#チームメンバーのスキルに応じ、研修参加や情報収集への適切なアドバイスやチーム内でのナレッジ共有を推進できる#*#*#
88#14#活動マネジメント#★★★#育成/ナレッジ共有#チームの各メンバーに対し、データサイエンティストとしてのスキル目標の設定、到達させるためのプロジェクトを通した適切なアドバイスができる#*#*#
89#15#活動マネジメント#★★★#育成/ナレッジ共有#チーム育成の上で、データサイエンティストに求められるスキルについて、研修制度の設計やナレッジ共有の仕組み構築と運営ができる#*#*#
90#16#活動マネジメント#★★★#育成/ナレッジ共有#チームに必要な情報やデータサイエンスの新しい技術・手法に関する情報収集戦略やラーニング⽅法を主導し、自ら情報を取捨選択し、チームにフィードバックできる#*#*#
91#17#活動マネジメント#★★#営業マネジメント#ビジネス要件を整理し、分析・データ活⽤のプロジェクトを企画・提案することができる#*#*#◯
92#18#活動マネジメント#★★★#営業マネジメント#依頼元やステークホルダーのビジネスをデータ⾯から理解し、分析・データ活⽤のプロジェクトを⽴ち上げ、プロジェクトにかかるコストと依頼元の利益を説明できる#*#*#
93#19#活動マネジメント#★★#組織マネジメント#データサイエンスチームの役割を認識し、担当するプロジェクトにおいて、組織内や他部門・他社間でのタスク設定や調整ができる###
94#20#活動マネジメント#★★★#組織マネジメント#データサイエンスチームを自社・他社の様々な組織と関連付け、対象組織内での役割の規定、目標設定を⾏うことができる###◯
95#1#知財#★★#AI・モデル開発#既存ライブラリなどを利⽤し、解析または開発を推進する際に、知財リスクの確認など、適切な対応をとることができる###◯
96#2#知財#★★★#AI・モデル開発#独自に開発する手法・アルゴリズム構築の際に、適切な専門家の助⼒を得て知財リスクの管理を⾏うことができる###
97#3#知財#★★★#AI・モデル開発#独自に開発した手法・アルゴリズムに対する他者からの権利侵害に備え、特許出願を含む適切な対応を⾏うことができる###
98#4#知財#★★★#AI・モデル開発#AI・モデル開発において、事業・現場に即したガイドラインを定義できる#*#*#
99#5#知財#★★★#AI・モデル開発#AI・モデルの活⽤・責任範囲に関し事業・現場に即したガイドラインを定義できる#*#*#
100#6#知財#★★★#AI・モデル開発#"学習済みモデルや⽣成されたデータの価値を理解した上で権利関係を明確にし、利
⽤許諾など契約の枠組みを定義できる"#*#*#
スキルチェックリスト    2017年    改訂版 <データサイエンス⼒>########
▼ 他分野寄りのスキル########
NO#"Sub
No"#スキルカテゴリ#スキルレベル#サブカテゴリ#チェック項目#BZ#DE#"必須
スキル"
1#1#統計数理基礎#★#統計数理基礎#1+4+9+16+25+36をΣを用いて表せる###◯
2#2#統計数理基礎#★#統計数理基礎#y=loga(x) の逆関数を説明できる###◯
3#3#統計数理基礎#★#統計数理基礎#順列や組合せを式 nPr, nCr を用いて計算できる###◯
4#4#統計数理基礎#★#統計数理基礎#条件付き確率の意味を説明できる###◯
5#5#統計数理基礎#★#統計数理基礎#平均(相加平均)、中央値、最頻値の算出方法の違いを説明できる###◯
6#6#統計数理基礎#★#統計数理基礎#⺟集団データ(3,4,5,5,7,8)の分散と標準偏差を電卓を用いて計算できる###◯
7#7#統計数理基礎#★#統計数理基礎#⺟(集団)平均が標本平均とは異なることを説明できる###◯
8#8#統計数理基礎#★#統計数理基礎#標準正規分布の分散と平均がいくつかわかる###◯
9#9#統計数理基礎#★#統計数理基礎#相関関係と因果関係の違いを説明できる###◯
10#10#統計数理基礎#★#統計数理基礎#名義尺度、順序尺度、間隔尺度、⽐例尺度の違いを説明できる###◯
11#11#統計数理基礎#★#統計数理基礎#⼀般的な相関係数(ピアソン)の分⺟と分⼦を説明できる###◯
12#12#統計数理基礎#★#統計数理基礎#5つ以上の代表的な確率分布を説明できる###◯
13#13#統計数理基礎#★#統計数理基礎#⼆項分布の事象もサンプル数が増えていくと中⼼極限定理により正規分布に近似されることを知っている###◯
14#14#統計数理基礎#★#統計数理基礎#変数が量的、質的どちらの場合の関係の強さも算出できる###◯
15#15#統計数理基礎#★#統計数理基礎#ベイズの定理を説明できる###◯
16#16#統計数理基礎#★★#統計数理基礎#ベイズ統計と頻度論による従来の統計との違いを、尤度、事前確率、事後確率などの用語を用いて説明できる###
17#1#予測#★#予測#単回帰分析について最小⼆乗法、回帰係数、標準誤差の説明ができる###◯
18#2#予測#★★#予測#重回帰分析において偏回帰係数と標準偏回帰係数、重相関係数について説明できる###◯
19#3#予測#★★#予測#重回帰や判別を実⾏する際に変数選択⼿法の特徴を理解し、適用できる###
20#4#予測#★★#予測#ニューラルネットワークの基本的な考え方を理解し、出⼒される「ダイアグラム」の⼊⼒層、隠れ層、出⼒層の概要を説明できる###
21#5#予測#★★#予測#重回帰分析において多重共線性の対応ができ、適切に変数を評価・除去して予測モデルが構築できる###◯
22#6#予測#★★#予測#決定⽊分析においてCHAID、C5.0などのデータ分割のアルゴリズムの特徴を理解し、適切な方式を選定できる###
23#7#予測#★★#予測#線形回帰分析が量的な変数を予測するのに対して、ロジスティック回帰分析は何を予測する⼿法か(発⽣確率予測など)を説明でき、実際に使用できる###
24#8#予測#★★★#予測#予測アルゴリズムに応じ、目的変数と説明変数に対する必要な変数加⼯処理を設計、実施できる###
25#9#予測#★★★#予測#予測モデル構築において頑健性を維持するための具体的な方法を設計、実施できる###
26#10#予測#★★★#予測#尤度と最尤推定についての説明ができる(尤度関数、ネイマンの分解定理、順序統計量)###
27#11#予測#★★★#予測#予測対象データの分布をみて、分布形状に適合した計算式の非線形回帰モデルを構築できる###
28#12#予測#★★★#予測#ロジスティック回帰分析において回帰パラメータとオッズ⽐の関係について説明できる###
29#13#予測#★★★#予測#ロジスティック回帰分析を⾏う際に、最小2乗法ではなく最尤法を使う際の利点(回帰誤差が近似的に正規分布しなくても適用できるなど)を説明し、適用することができる###
30#14#予測#★★★#予測#"目的(予測・真のモデル推定など)に応じて、適切な損失関数とモデル選択基準
(AIC(⾚池情報量規準)、BIC(ベイズ情報量規準)、MDL(最小記述⻑)など)を選択し、モデル評価ができる"###
31#15#予測#★★★#予測#データと分析要件から、モデル精度のモニタリング設計・実施と劣化が⾒込まれるモデルに対するリモデルの設計ができる###
32#16#予測#★★#予測#分析要件に応じ、量的予測のためのモデリング⼿法(重回帰、決定⽊、ニューラルネットワークなど)の選択とパラメータ設定、結果の評価、チューニングを適切に設計・実施・指示できる###◯
33#17#予測#★★★#予測#当該分野に則したベイズ統計に基づくアルゴリズムを理解し、モデルを構築できる###
34#1#検定/判断#★#検定/判断#点推定と区間推定の違いを説明できる###
35#2#検定/判断#★#検定/判断#帰無仮説と対⽴仮説の違いを説明できる###◯
36#3#検定/判断#★#検定/判断#第1種の過誤、第2種の過誤、p値、有意水準の意味を説明できる###
37#4#検定/判断#★#検定/判断#片側検定と両側検定の違いを説明できる###
38#5#検定/判断#★#検定/判断#対応のあるデータと対応のないデータの違いを説明できる###
39#6#検定/判断#★#検定/判断#2群の平均値の差の検定⼿法を知っている###
40#7#検定/判断#★★#検定/判断#t検定を理解して、パラメトリックな2群の検定を活用することができる###◯
41#8#検定/判断#★★#検定/判断#様々な分散分析の考え方(⼀元配置、多重⽐較、⼆元配置)を理解して、パラメトリックな多群の検定を活用することができる###
42#9#検定/判断#★★#検定/判断#ウィルコクソン検定(マンホイットニーのU検定)を理解して、ノンパラメトリックな2群の検定を活用することができる###
43#10#検定/判断#★★#検定/判断#クラスカル・ウォリス検定を理解して、ノンパラメトリックな多群の検定を活用することができる###
44#11#検定/判断#★★#検定/判断#カイ⼆乗検定、フィッシャーの直接確率検定を理解して、分割表における群間の関連性の検定を活用することができる###
45#1#グルーピング#★#グルーピング#教師あり学習の分類モデルと教師なし学習のグループ化の違いを説明できる###◯
46#2#グルーピング#★#グルーピング#判別分析とクラスター分析の概要や使い方を説明できる###
47#3#グルーピング#★#グルーピング#階層クラスター分析と非階層クラスター分析の違いを説明できる###
48#4#グルーピング#★#グルーピング#階層クラスター分析において、デンドログラムの⾒方がわかり、適切に解釈できる###
49#5#グルーピング#★★#グルーピング#非階層クラスター分析において、分析目的に合致したクラスター数を決定することができる###
50#6#グルーピング#★★#グルーピング#"階層クラスター分析における代表的なクラスター間距離(群平均法、Ward法、最⻑
⼀致法など)の概念を理解し、目的に合致した最適な⼿法で分析できる"###◯
51#7#グルーピング#★★#グルーピング#各種距離関数(ユークリッド距離、マンハッタン距離、cos類似度など)を理解し、目的に合致した最適な⼿法で分析できる###
52#8#グルーピング#★★#グルーピング#分析対象に応じて、線形の判別分析モデルと非線形の判別分析モデルを適切に使い分けることができる###
53#9#グルーピング#★★#グルーピング#k-means法は局所最適解であるため初期値問題があることを理解し、適切な初期値を設定して分析を⾏える###◯
54#10#グルーピング#★★★#グルーピング#距離の公理を知っており、距離の公理を満たさない場合([1-cos類似度]など)のクラスター分析を適切に⾏える###
55#11#グルーピング#★★★#グルーピング#k-meansの派⽣⼿法(x-means、k-means++、ファジィk-meansなど)を理解し、目的に合致した最適な⼿法で分析できる###
56#12#グルーピング#★★★#グルーピング#k-meansとカーネルk-means(非線形クラスタリング)、スペクトラルクラスタリングの違いを理解し、試⾏の中で最適な⼿法を選択・実⾏できる###
57#13#グルーピング#★★★#グルーピング#自己組織化マップ(SOM)、Affinity Propagation、混合分布モデル、ディリクレ過程混合モデルを理解し、試⾏の中で最適な⼿法を選択・実⾏できる###
58#14#グルーピング#★★★#グルーピング#反復⼦ニューラルネットワーク(オートエンコーダ)、One-class SVM(Support Vector Machine)、マハラノビス距離を用いた異常検知の⼿法を理解し、試⾏の中で最適な⼿法を選択・実⾏できる###
59#1#性質・関係性の把握#★#性質・関係性の把握#適切なデータ区間設定でヒストグラムを作成し、データのバラつき方を把握できる###◯
60#2#性質・関係性の把握#★#性質・関係性の把握#適切な軸設定でクロス集計表を作成し、属性間のデータの偏りを把握できる###◯
61#3#性質・関係性の把握#★#性質・関係性の把握#量的変数の散布図を描き、2変数の関係性を把握することができる###◯
62#4#性質・関係性の把握#★★#性質・関係性の把握#多重(質問間)クロス表などを駆使して、データから適切なインサイトを得ることができる#*##◯
63#5#性質・関係性の把握#★★#性質・関係性の把握#主成分分析と因⼦分析の違いや使い分けを説明できる###◯
64#6#性質・関係性の把握#★★#性質・関係性の把握#正準相関分析を説明、活用できる###
65#7#性質・関係性の把握#★★#性質・関係性の把握#"分析の目的と用いるデータの種類から、正規分布を前提とした多変量解析の適切な
⼿法を選択できる"###
66#8#性質・関係性の把握#★★#性質・関係性の把握#因⼦分析における、因⼦負荷量や因⼦軸の回転について説明できる###
67#9#性質・関係性の把握#★★#性質・関係性の把握#コレスポンデンス(対応)分析と数量化3類の類似点と違いを説明出来る###
68#10#性質・関係性の把握#★★#性質・関係性の把握#コンジョイント分析を用いて効用値と寄与率のグラフを描くことができる###
69#11#性質・関係性の把握#★★#性質・関係性の把握#適切な類似度を設定した上で、多次元尺度構成法を用いてポジショニングマップを描くことができる###
70#12#性質・関係性の把握#★★#性質・関係性の把握#⾏列分解(非負値⾏列因⼦分解、特異値分解)をツールを使って実⾏でき、その結果を正しく解釈できる###
71#13#性質・関係性の把握#★★★#性質・関係性の把握#空間的自己相関の⼿法を用いて空間的な類似性を数値化できる###
72#14#性質・関係性の把握#★★★#性質・関係性の把握#⾏列分解(非負値⾏列因⼦分解、特異値分解)を、目的に応じてパラメータを最適化して分析できる###
73#1#サンプリング#★#サンプリング#標本誤差とは何かを説明できる###◯
74#2#サンプリング#★#サンプリング#実験計画法の概要を説明できる###
75#3#サンプリング#★★#サンプリング#調査対象の⺟集団の規模・特性や調査コストに応じて、多段階抽出法や層化抽出法など適切な標本抽出方法を計画できる###
76#4#サンプリング#★★#サンプリング#属性数と水準数が決まれば適切な直交表を選択し実験計画ができる###
77#5#サンプリング#★★#サンプリング#調査に求められる信頼水準・誤差率から必要となるサンプル数を試算できる###◯
78#1#データ加⼯#★#データ加⼯#名義尺度の変数をダミー変数に変換できる###◯
79#2#データ加⼯#★#データ加⼯#標準化とは何かを知っていて、適切に標準化が⾏える###◯
80#3#データ加⼯#★#データ加⼯#外れ値・異常値・⽋損値とは何かそれぞれ知っていて、指示のもと適切に検出と除去・変換などの対応ができる###◯
81#4#データ加⼯#★#データ加⼯#加⼯済データに分析上の不具合がないか検証できる###◯
82#5#データ加⼯#★★#データ加⼯#各変数の分布・⽋損率などをふまえて、外れ値・異常値・⽋損値の対応を決定できる###◯
83#6#データ加⼯#★★#データ加⼯#分析要件や各変数の分布などをふまえて、必要に応じて量的変数のカテゴライズを設計・実⾏できる###
84#7#データ加⼯#★★#データ加⼯#加⼯データに不具合がないか自分でテストを設計し、検証できる###
85#8#データ加⼯#★★★#データ加⼯#加⼯データの統計的な俯瞰によって不具合の早期発⾒ができるとともに、統計的観点で次ステップの解析に耐えうるデータであるか評価できる###
86#1#データ可視化#★#方向性定義#可視化の目的の広がりの概略について説明できる(単に現場の作業⽀援する場合から、ビッグデータ中の要素間の関連性をダイナミックに表示する場合など)#*##
87#2#データ可視化#★★#方向性定義#特異点を明確にする、データ解析部門以外の方にデータの意味を正しく伝える、現場の作業を⽀援するといった可視化の役割・方向性を判別できる#*##
88#3#データ可視化#★★★#方向性定義#データ量が膨⼤で構造が捉えにくい場合や、アウトプットが想像しにくい場合で あっても、可視化の役割・方向性を判断できる(ビッグデータ中の要素間の関連性をダイナミックに表現する、細部に⼊りきらずに問に対して答えを出すなど)###
89#4#データ可視化#★#軸だし#散布図などの軸だしにおいて、縦軸・横軸の候補を適切に洗い出せる###◯
90#5#データ可視化#★#軸だし#積み上げ縦棒グラフでの属性の選択など、適切な層化(⽐較軸)の候補を出せる###◯
91#6#データ可視化#★★#軸だし#抽出したい意味にふさわしい軸・層化の粒度、順番を考慮して軸のきざみや層化方法を選択できる###◯
92#7#データ可視化#★★#軸だし#膨⼤な属性を持つテーブルから目的に有用な属性を選択できる###
93#8#データ可視化#★★★#軸だし#非構造データから分析の軸になりうる候補を抽出し、付加すべき属性候補を適切に出せる###
94#9#データ可視化#★#データ加⼯#サンプリングやアンサンブル平均によって適量にデータ量を減らすことができる###
95#10#データ可視化#★★#データ加⼯#データの持つ分散量の観点で、⾼次のデータを主成分分析(PCA)などにより1〜3次元のデータに変換できる###
96#11#データ可視化#★★#データ加⼯#統計量を使うことで、データの読み取りたい特徴を効果的に可視化できる###
97#12#データ可視化#★★★#データ加⼯#非線形(⾼次の曲線、渦状の分布など)のデータであっても、⾼次のデータの次元を、次元圧縮(1〜3次元のデータに変換)して、特徴(データの総分散量および各データの位置関係)を損なわずに可視化できる###
98#13#データ可視化#★★★#データ加⼯#ネットワーク構造、グラフ構造などの表現において、ノードとエッジが増えすぎて特徴抽出が困難であっても、データの絞り込みや抽象度を上げることで適切に可視化できる##*#
99#14#データ可視化#★★★#データ加⼯#データ量が膨⼤(ペタバイト以上)なために、処理しきれず描画できない規模の データに対しても、適度なデータや情報の抽出(間引き)、クラスタリングなどにより可視化しうる状態にデータを加⼯できる##*#
100#15#データ可視化#★★★#データ加⼯#⼤規模なデータへのリアルタイムな可視化が求められる場合であっても、特異点の抽出や次元圧縮を通じてデータを圧縮し、リアルタイム表示できる##*#
101#16#データ可視化#★★★#データ加⼯#⼤規模なデータへのリアルタイムな可視化が求められる場合であっても、データの分割転送、復元を通じて可視化できる##*#
102#17#データ可視化#★#表現・実装技法#適切な情報濃度を判断できる(データインク⽐など)###
103#18#データ可視化#★#表現・実装技法#不必要な誇張をしないための軸表現の基礎を理解できている(コラムチャートのY軸の基準点は「0」からを原則とし軸を切らないなど)###◯
104#19#データ可視化#★#表現・実装技法#強調表現がもたらす効果と、明らかに不適切な強調表現を理解している(計量データに対しては位置やサイズ表現が色表現よりも効果的など)#*##◯
105#20#データ可視化#★#表現・実装技法#1〜3次元の⽐較において目的(⽐較、構成、分布、変化など)に応じた図表化ができる###◯
106#21#データ可視化#★#表現・実装技法#端的に図表の変化をアニメーションで可視化できる(人口動態のヒストグラムが経年変化する様⼦を表現するなど)###
107#22#データ可視化#★#表現・実装技法#データ解析部門以外の方に、データの意味を伝えるサインとしての可視化ができる#*##
108#23#データ可視化#★#表現・実装技法#ボロノイ図の概念と活用方法を説明できる###
109#24#データ可視化#★★#表現・実装技法#1〜3次元の図表を拡張した多変量の⽐較(平⾏座標、散布図⾏列、テーブルレンズ、ヒートマップなど)を適切に可視化できる###◯
110#25#データ可視化#★★#表現・実装技法#ネットワーク構造、グラフ構造、階層構造などの統計的な関係性の可視化ができる##*#◯
111#26#データ可視化#★★#表現・実装技法#GPSデータなどを平面地図上に重ね合わせた可視化ができる###
112#27#データ可視化#★★#表現・実装技法#挙動・軌跡の可視化ができる(店舗内でのユーザーの回遊やEye trackingなど)###
113#28#データ可視化#★★#表現・実装技法#適切な情報(意味)を押さえた上で、デザイン性を⾼めるための要件提示ができる###
114#29#データ可視化#★★★#表現・実装技法#人体、標⾼を持つ地図、球面などの上にデータを重ね合わせた可視化ができる##*#
115#30#データ可視化#★★★#表現・実装技法#地図上で同時に動く数百以上のポイントにおける時間変化を動的に表現できる(多地点での風の動き、⾶⾏物の軌跡など)##*#
116#31#データ可視化#★#意味抽出#データの性質を理解するために、データを可視化し眺めて考えることの重要性を理解している###◯
117#32#データ可視化#★#意味抽出#外れ値を⾒出すための適切な表現⼿法を選択できる###
118#33#データ可視化#★#意味抽出#データの可視化における基本的な視点を挙げることができる(特異点、相違性、傾向性、関連性を⾒出すなど)###
119#34#データ可視化#★★#意味抽出#統計値(代表値の指標、バラツキの指標、有意性の指標、関係式)を正しく読み、回帰式や移動平均線に意味付けできる###
120#35#データ可視化#★★★#意味抽出#分類系の分析において、分布傾向から原因を追究、活用(分類に応じたDM発送による反応率の向上など)、ドリルダウンを計画し主導できる###
121#36#データ可視化#★★★#意味抽出#予測系の分析において、関連性、特異点、変曲点から原因を追究、活用(予測結果に基づく発注管理など)を計画し主導できる###
122#37#データ可視化#★★★#意味抽出#関連系の分析において関連が⾼い/低い原因、活用(リコメンドなど)、ドリルダウンを計画し主導できる###
123#1#分析プロセス#★#アプローチ設計#スコープ、検討範囲・内容が明快に設定されていれば、必要なデータ、分析⼿法、可視化などを適切に選択できる#*##
124#2#分析プロセス#★★#アプローチ設計#解くべき課題がフレーミングされていれば、必要なデータ、分析⼿法、可視化などを適切に選択できる#*##◯
125#3#分析プロセス#★★★#アプローチ設計#複数の事業や課題にまたがっていても、必要なデータ、分析⼿法、可視化などを適切に選択し作業⼿順に落とし込める#*##
126#4#分析プロセス#★★★#アプローチ設計#複数のアプローチの組み合わせでしか解けない課題であっても、その解決までの道筋を設計できる#*##
127#5#分析プロセス#★★#分析価値の判断#分析で解くべき課題か否かを判断できる#*##
128#1#データの理解・検証#★#統計情報への正しい理解#ニュース記事などで統計情報に接したときに、数字やグラフの持つメッセージを理解できる#*##
129#2#データの理解・検証#★★#統計情報への正しい理解#積極的に統計情報を収集しているとともに、表現に惑わされず数字を正当に評価できる(原点が0ではないグラフ、不当に誇張されたグラフなど)#*##
130#3#データの理解・検証#★★★#統計情報への正しい理解#数字やデータの検証のために、何と⽐較するべきかすみやかに把握し、収集・利用できる(業務データや過去に接触した統計情報の想起・活用を含む)#*##
131#4#データの理解・検証#★#データ確認#単独のグラフに対して、集計ミスなどがないかチェックできる#*##◯
132#5#データの理解・検証#★#データ確認#データ項目やデータの量・質について、指示のもと正しく検証し、結果を説明できる#*##
133#6#データの理解・検証#★★#データ確認#複数のグラフや集計表で構成されているレポートに対して、全体として集計ミスや不整合が起きていないかチェックできる#*##◯
134#7#データの理解・検証#★★#データ確認#データ項目やデータの量・質の検証方法を計画・実⾏し、その結果をもとにその後の分析プロセスを⽴案・修正できる#*##
135#8#データの理解・検証#★★★#データ確認#多数のグラフ、集計表、外部の統計情報、⾼度なデータ解析⼿法を用いた解析結果などを含むレポートに対して、不整合が起きていないか、妥当性の⾼い論理構造であるかチェックできる#*##
136#9#データの理解・検証#★★★#データ確認#分析に必要なデータを想定し、現在取得可能なデータの量・質で分析に耐えうるか、分析目的が達成可能であるかを判断できる#*##◯
137#10#データの理解・検証#★#俯瞰・メタ思考#データが⽣み出された背景を考え、鵜呑みにはしないことの重要性を理解している#*##
138#11#データの理解・検証#★★#俯瞰・メタ思考#データを俯瞰して、変化をすみやかに察知するとともに、変化が誤差の範囲かどうか判断できる#*##◯
139#12#データの理解・検証#★★★#俯瞰・メタ思考#複数のデータを多元的かつ⼤局的に俯瞰して、⼤きな動きや本質的な事実を⾒抜くことができる#*##◯
140#13#データの理解・検証#★#データ理解#データから事実を正しく浮き彫りにするために、集計の切り口や⽐較対象の設定が重要であることを理解している#*##◯
141#14#データの理解・検証#★#データ理解#普段業務で扱っているデータの発⽣トリガー・タイミング・頻度などを説明でき、また基本統計量を把握している#*##◯
142#15#データの理解・検証#★#データ理解#何のために集計しているか、どのような知⾒を得たいのか、目的に即して集計できる#*##◯
143#16#データの理解・検証#★★#データ理解#⽣データを眺めて、どのような切り口で集計・⽐較すればデータの理解や事実の把握につながるか検討できる#*##◯
144#17#データの理解・検証#★★#データ理解#扱ったことのない新たなデータに内容の不明な項目があっても、⽣データの閲覧や集計を通して何の項目かあたりをつけられる#*##
145#18#データの理解・検証#★★#データ理解#扱っているデータの関連業務の知識と分析目的を踏まえて、どんな説明変数が効きそうか、あたりをつけて洗い出し、構造的に整理できる#*##
146#19#データの理解・検証#★★★#データ理解#データの変化から起きている事象の背景を構造的に推察し、仮説を⽴て、検証方法を企画実⾏できる#*##
147#20#データの理解・検証#★★★#データ理解#データを⼊⼿する前に、存在するであろうデータとその分布を想定して基礎俯瞰の方向性やその結果の想定ができ、それを前提とした解析方法の検討・ラフ設計をすることができる#*##
148#21#データの理解・検証#★★★#データ理解#"扱ったことのない新たなデータであっても、ER図やテーブル定義、⽣データなどを
⾒ることによってデータの発⽣源や⽋損値の意味などのあたりをつけられる"#*##
149#22#データの理解・検証#★★#データ粒度#分析目的とデータの量・質を踏まえて、想定されるメッセージと統計的観点から適切な集計単位とサンプリング率を決定できる#*##
150#23#データの理解・検証#★★★#データ粒度#分析目的とデータの量・質に加えて、想定しているメッセージ、深掘りの方向性・可能性、処理負荷、データ処理フローなども総合的に踏まえた最適な集計単位とサンプリング率を決定できる#*##
151#1#意味合いの抽出、洞察#★#洞察#分析、図表から直接的な意味合いを抽出できる(バラツキ、有意性、分布傾向、特異性、関連性、変曲点、関連度の⾼低など)#*##◯
152#2#意味合いの抽出、洞察#★#洞察#想定に影響されず、分析結果の数値を客観的に解釈できる#*##
153#3#意味合いの抽出、洞察#★★#評価#各種の解析⼿法(主成分分析、クラスター分析、決定⽊分析など)の結果を解釈し、意味合いを適切に表現・説明できる#*##
154#4#意味合いの抽出、洞察#★★#評価#分析結果が当初の目的を満たしていない場合に、問題を正しく理解し、目的達成に向けて必要な分析⼿順を追加・変更できる#*##
155#1#機械学習#★#機械学習#"機械学習にあたる解析⼿法(Random Forestなど)の名称を3つ以上知っており、
⼿法の概要を説明できる"###
156#2#機械学習#★#機械学習#指示を受けて機械学習のモデルを使用したことがあり、どのような問題を解決することができるか理解している###
157#3#機械学習#★★#機械学習#「教師あり学習」「教師なし学習」「強化学習」の違いを理解しており、データの内容や学習⼿法に応じて適切な学習データ、テストデータ、検証データ(チューニング用データ)を作成できる###
158#4#機械学習#★★#機械学習#過学習とは何か、それがもたらす問題について説明できる###◯
159#5#機械学習#★★#機械学習#回帰予測モデルの検討において、過学習を防止するためL1正則化(Lasso回帰)、 L2正則化(Ridge回帰)を適切に適用できる###
160#6#機械学習#★★#機械学習#ROCカーブを用いてモデルの精度を評価できる###
161#7#機械学習#★★#機械学習#混同⾏列(正誤分布のクロス表)を用いてモデルの精度を評価できる###
162#8#機械学習#★★#機械学習#MSE(Mean Square Error)、Accuracy、Precision、Recall、F値といった評価尺度を理解し、実際の精度評価を⾏うことができる###
163#9#機械学習#★★#機械学習#サポートベクターマシンによる分析を、統計解析ツールを使って実⾏でき、その結果を解釈できる###
164#10#機械学習#★★#機械学習#アンサンブル学習(Random Forest、勾配ブースティングマシン、バギング)による分析を、統計解析ツールを使って実⾏でき、その結果を正しく解釈できる###
165#11#機械学習#★★#機械学習#ニューラルネットワークによる分析を、統計解析ツールを使って実⾏でき、その結果を正しく解釈できる###
166#12#機械学習#★★★#機械学習#課題やデータ型に応じて、サポートベクターマシンの適切なモデルを選定し、目的に応じてアルゴリズムの調整や設計ができる###
167#13#機械学習#★★★#機械学習#課題やデータ型に応じて、アンサンブル学習(Random Forest、勾配ブースティングマシン、バギング)の適切なモデルを選定し、目的に応じてアルゴリズムの調整や設計ができる###
168#14#機械学習#★★★#機械学習#"CNN、RNN/LSTMなどの深層学習(ディープラーニング)の主要方式の特徴を理解し、目的に応じて適切に選定できる
※CNN:Convolutional Neural Network
(畳み込みニューラルネットワーク)
※RNN: Recurrent Neural Network
(再帰型ニューラルネットワーク)
※LSTM:Long Short-Term Memory
(⻑期短期記憶)"###
169#15#機械学習#★★★#機械学習#深層学習(ディープラーニング)の実装において、予想精度を向上するため、層の種類(プール、畳み込み)、層数、ニューロン数、活性化関数、学習回数などを チューニングできる###
170#16#機械学習#★★★#機械学習#ホールドアウト法、交差確認法などを用いて、モデルの汎化能⼒評価ができる###
171#17#機械学習#★★★#機械学習#過学習を回避する方法を設計・実施できる###
172#18#機械学習#★★★#機械学習#⾼次元データの取り扱いについて、次元の呪いを考慮し適切に次元削減できる###
173#19#機械学習#★★★#機械学習#機械学習等の最新の論⽂を理解し、必要とあれば自分で実装し評価できる###
174#20#機械学習#★★★#機械学習#バイアスとバリアンスの関係を理解し、モデル選定を適切に⾏える###
175#1#時系列分析#★#時系列分析#時系列データについて説明ができる(時系列グラフ、周期性、移動平均など)###
176#2#時系列分析#★★#時系列分析#時系列データの時点差での相関関係を、系列相関やコレログラムを利用して評価ができる###
177#3#時系列分析#★★#時系列分析#時系列データに対し、ツールを使用して、分析結果の⽐較を⾏い、適切なモデルを選択できる(自己回帰モデル、移動平均モデル、ARIMA、SARIMA、指数平滑法など)###
178#4#時系列分析#★★#時系列分析#"時系列分析は少なくとも3つの要素の視点をもって⾏うべきことを理解している
(⻑期トレンド、季節成分、その他周期性など)"###
179#5#時系列分析#★★#時系列分析#ピリオドグラムにおいて、FFT(Fast Fourier Transform)など計算量を抑制する方法により、ピリオドグラムの計算ができる###
180#6#時系列分析#★★★#時系列分析#状態空間モデルにおいて、カルマンフィルタを用いて、観測値から⽋測値の補間をし、予測モデルを構築できる###
181#7#時系列分析#★★★#時系列分析#非線形・非ガウス型状態空間モデルにおいて、モンテカルロ・フィルタを用いて、複雑な時系列システムの予測モデルを構築できる###
182#1#⾔語処理#★#⾔語処理#形態素解析や係り受け解析の概念を説明できる###
183#2#⾔語処理#★★#⾔語処理#形態素解析や係り受け解析のツールを適切に使い、基本的な⽂書構造解析を⾏うことができる###
184#3#⾔語処理#★★#⾔語処理#TF-IDFやcos類似度などの基本的なアルゴリズムを使い、単語ベクトルの作成や⽂書群の類似度計算を⾏うことができる###
185#4#⾔語処理#★★★#⾔語処理#形態素解析・構⽂解析・固有表現抽出のアルゴリズムを理解し、使いこなせる###
186#5#⾔語処理#★★★#⾔語処理#N-gram⾔語モデルの構築方法と代表的なスムージングアルゴリズムを理解し、使いこなせる###
187#6#⾔語処理#★★★#⾔語処理#索引型の全⽂検索の仕組み(転置インデックス、スコアリング、関連性フィードバック)を理解し、使いこなせる###
188#7#⾔語処理#★★★#⾔語処理#Trie、Suffix Arrayなどの代表的な⾼速⽂字列検索アルゴリズムを理解し、使いこなせる###
189#8#⾔語処理#★★★#⾔語処理#潜在的意味解析(LSA)の仕組みを理解し、使いこなせる###
190#9#⾔語処理#★★★#⾔語処理#データの特性に合わせ、適切な⾔語処理アルゴリズムを選択し、誤り分析、辞書作成などを⾏い、成果を最⼤化することができる###
191#10#⾔語処理#★★★#⾔語処理#トピックモデル、サポートベクターマシン(SVM)などの⽂書分類⼿法を理解し、実⾏できる###
192#11#⾔語処理#★★★#⾔語処理#再帰型ニューラルネットワーク(RNN)、⻑期短期記憶(LSTM)などを用いたニューラルネット型⾔語モデルを理解し使いこなせる###
193#12#⾔語処理#★★★#⾔語処理#隠れマルコフモデル(HMM)などを用いた系列ラベリング⼿法を理解し使いこなせる###
194#13#⾔語処理#★★★#⾔語処理#スキップグラム(Skip-gram)などの分散表現モデルを理解し使いこなせる###
195#1#画像・動画処理#★#画像処理#画像のデジタル表現の仕組みと代表的な画像フォーマットを知っている###
196#2#画像・動画処理#★#画像処理#画像に対して、目的に応じた適切な色変換や簡単なフィルタ処理などを⾏うことができる###
197#3#画像・動画処理#★★#画像処理#画像の処理や解析において、効果的なパターン検出や画像特徴抽出などを既存⼿法から選ぶことができる##*#
198#4#画像・動画処理#★★#画像処理#画像の処理や解析において、既存のAPI化したクラウドサービスなどを目的に即して、選定・活用することができる###
199#5#画像・動画処理#★★★#画像処理#物体検出・識別などの画像処理⼿法に関して、適切な論⽂などの⽂献を参考に実装し評価できる###
200#6#画像・動画処理#★★★#画像処理#画像・動画処理を⾏う環境に合わせて適切な実装・⼿法を選ぶことができる##*#
201#7#画像・動画処理#★#動画処理#動画のデジタル表現の仕組みと代表的な動画フォーマットを理解しており、動画から画像を抽出する既存方法を使うことができる###
202#8#画像・動画処理#★★★#動画処理#動画の自動解析⼿法の現況について理解し、適切な専門家のサポートの元で実装を検討できる###
203#1#⾳声/⾳楽処理#★#⾳声/⾳楽処理#wavやmp3などの代表的な⾳声フォーマットを知っている###
204#2#⾳声/⾳楽処理#★★#⾳声/⾳楽処理#⾳声データから、分析目的にあった波形データの抽出やノイズの除去をすることができる###
205#3#⾳声/⾳楽処理#★★#⾳声/⾳楽処理#⾳声認識や本人認証、感情分析などの代表的な⾳声処理分野について理解し、用いられる分析⼿法を説明することができる###
206#4#⾳声/⾳楽処理#★★★#⾳声/⾳楽処理#ケプストラム分析やLPC(線形予測分析)などの代表的な⾳声信号分析⼿法を理解し、使いこなすことができる###
207#5#⾳声/⾳楽処理#★★★#⾳声/⾳楽処理#⾳声認識や認証・感情分析などの目的に合わせて、パラメータ調整や⼿法変更、⾔語モデル・⾳響モデルなどを差し替え、モデル構築・精度評価をすることができる###
208#1#パターン発⾒#★★#パターン発⾒#条件Xと事象Yの関係性をリフト値を用いて評価できる###
209#2#パターン発⾒#★★#パターン発⾒#アプリオリアルゴリズムのアソシエーション分析において、統計ツールのパラメータをチューニングして出⼒件数を調整できる###
210#3#パターン発⾒#★★#パターン発⾒#レコメンデーション業務の要件から適切な協調フィルタリングロジック(ユーザベース、アイテムベースなど)の選定を⾏うことができる###
211#1#グラフィカルモデル#★★#グラフィカルモデル#パス解析において、変数間の因果関係をパス図を用いて説明できる###
212#2#グラフィカルモデル#★★#グラフィカルモデル#ベイジアンネットワーク分析結果から目的事象の事後確率を算出できる###
213#3#グラフィカルモデル#★★#グラフィカルモデル#ツールを用いて共分散構造分析(構造方程式モデリング:SEM)を⾏い、観測変数・潜在変数の因果関係を説明できる###
214#1#シミュレーション/データ同化#★★#シミュレーション/データ同化#"離散型・連続型シミュレーションについて、説明できる
(モンテカルロ、ヒストリカル、Agentベースなど)"###
215#2#シミュレーション/データ同化#★★#シミュレーション/データ同化#マルコフ連鎖の特徴を理解し、MCMC(マルコフ連鎖モンテカルロ法)シミュレーションをツールを用いて実装できる###
216#3#シミュレーション/データ同化#★★★#シミュレーション/データ同化#データ同化の概念を理解し、実⾏できる(データを用いてシミュレーション内の不確実性を減少させる計算技法など)###
217#4#シミュレーション/データ同化#★★★#シミュレーション/データ同化#"シミュレーションにおける問題を理解し、対処を考えることができる
(初期条件・境界条件・パラメータの不確実性、データ分布の不均⼀性、実験計画の最適性など)"###
218#5#シミュレーション/データ同化#★★★#シミュレーション/データ同化#MCMC(マルコフ連鎖モンテカルロ法)における各種アルゴリズム(メトロポリス-ヘイスティングス法、ギブスサンプラー、ハミルトニアン・モンテカルロ法など)について理解し、活用できる###
219#1#最適化#★★#最適化#線形計画法について、説明することができる###
220#2#最適化#★★#最適化#複数のA/Bテストの統計的結果を踏まえ、デザイン等の最適化を⾏う⼿法を回すことができる#*##
221#3#最適化#★★#最適化#⼀定の制約下で最適解の識別と報酬の最⼤化がともに求められ、かつ報酬分布が時間経過で変化するような問題に対して、多腕バンディットアルゴリズムを適用・実装できる###
222#4#最適化#★★#最適化#凸関数および、凸計画問題の条件や特徴を説明できる###
223#5#最適化#★★#最適化#連続最適化問題(制約なし)において、使用可能なアルゴリズムを説明することができる(ニュートン法、最急降下法など)###
224#6#最適化#★★#最適化#連続最適化問題(制約あり)において、使用可能なアルゴリズムを説明することができる(ラグランジュ未定乗数法、内点法、逐次2次計画法など)###
225#7#最適化#★★#最適化#組み合わせ最適化問題において、代表的な解法の概念を説明することができる(厳密解法(分枝限定法、動的計画法、切除平面法)、近似解法(局所探索、貪欲法など)、メタヒューリスティック解法(遺伝的アルゴリズム、タブーサーチなど))###
226#8#最適化#★★★#最適化#ビジネス課題にあわせて、変数、目的関数、制約を定式化し、線形・非線形を問わず、最適化モデリングができる###
227#9#最適化#★★★#最適化#"代表的な最適化問題に関して、モデリングを⾏い、ソルバーを使い、最適化できる
(ナップザック問題、ネットワークフロー問題、巡回路問題など)"###
228#10#最適化#★★★#最適化#"バッチ勾配降下法、確率的勾配降下法、ミニバッチ勾配降下法の違いを説明でき、勾配降下法の複数のアルゴリズムを、目的に応じて使い分けることができる
(Momentum、Adamなど)"###
スキルチェックリスト    2017年    改訂版 <データエンジニアリング⼒>########
▼ 他分野寄りのスキル########
NO#"Sub
No"#スキルカテゴリ#スキルレベル#サブカテゴリ#チェック項目#BZ#DS#"必須
スキル"
1#1#環境構築#★#システム運用#サーバー1〜10台規模のシステム構築、システム運用を指⽰書があれば実⾏できる###
2#2#環境構築#★#システム運用#数十万レコードを持つデータベースのバックアップ・アーカイブ作成など定常運用ができる###
3#3#環境構築#★★#システム運用#数千万レコードのデータを保持するシステムにおいてデータの重要性や分析要件に則したシステム構築、初期データ投⼊⽅法、システム運用の要件定義が⾏える###◯
4#4#環境構築#★★#システム運用#顧客管理など分析システムの運用(異常検知、フェイルオーバー、バックアップ、リカバリー処理、開始・停⽌処理)の⼿順書作成や要件定義が⾏える###
5#5#環境構築#★★#システム運用#数千万レコードのデータを保持するシステムのキャパシティ要件(データ容量)と必要処理性能(スループット)を定義できる###
6#6#環境構築#★★★#システム運用#数十億レコードのデータに対してリバランシングなども含めてシステム拡張⽅法や最適化の要件を整理できる###
7#7#環境構築#★★★#システム運用#扱うデータのデータ規模や機密性、分析要件を理解した上で、オンプレミスで構築するか、クラウド上で構築するかの要件を整理できる###
8#8#環境構築#★#システム企画#データベースから何らかのデータ抽出⽅法を活用し、小規模なExcelのデータセットを作成できる###◯
9#9#環境構築#★#システム企画#オープンデータ活用目的でExcelを使った分析システムの要件定義が⾏える###
10#10#環境構築#★★#システム企画#HTTPを活用したオープンAPIと分析システムのサーバー環境及びデータベースの連携設計ができる###
11#11#環境構築#★★#システム企画#社内分析者向けのRDBMS、NoSQL、ETL、Visualizationなど単一コンポーネントのユーザー利用機能設計が⾏える###◯
12#12#環境構築#★★#システム企画#ソフトウェア開発プロジェクトの管理⽅法、設計、テスト⽅法を理解した上で、データ管理・分析システムを要求定義することができる###
13#13#環境構築#★★#システム企画#深層学習(ディープラーニング)の学習を高速化するために、GPU(GPGPU)環境を設計・実装できる###
14#14#環境構築#★★★#システム企画#数十億レコード規模のデータに対し、HadoopやSparkなどを組み合わせた適切なシステム構成を設計できる###
15#15#環境構築#★★★#システム企画#組織を横断する多種多様なデータが混在する環境下でのデータ利活用ニーズに対して適切なシステム環境を設計・提案できる###
16#16#環境構築#★★★#システム企画#数十億レコードの内部データ(CRM、webログ、ユーザー購買データ)、外部データ(購⼊しているデータ、オープンデータ)を理解し、複数のデータソースを統合する要件を整理できる###
17#17#環境構築#★★★#システム企画#サービス上のそれぞれの機能がどのデータに関連があるか把握し、分析機能追加やシステム変更の要件を整理できる###◯
18#18#環境構築#★★★#システム企画#KVS、カラム指向、ドキュメント指向などデータ構造の異なる複数のシステムからデータ取得と分析環境への連携が設計できる###
19#19#環境構築#★★★#システム企画#数十億レコードのデータを持つ業務要件やリソース負荷に応じて、データフローや管理機構の統合、またバッチ実⾏スケジュールの最適化について要件定義が⾏える###
20#20#環境構築#★★★#アーキテクチャ設計#全体システム化計画及び個別システム化構想・計画を具体化するために、全体最適の観点を持ちながら、対象とするデータ分析システムの開発に必要となる要件を整理することができる###
21#21#環境構築#★★★#アーキテクチャ設計#データ活用戦略を正しく理解し、各種業務プロセスについての専門知識とシステムに関する知識を有し、双⽅を活用して、適切な要求定義が⾏える#*##
22#1#データ収集#★#クライアント技術#対象プラットフォームが提供する機能(SDKやAPIなど)の概要を説明できる###◯
23#2#データ収集#★★#クライアント技術#"対象プラットフォーム(iOS、Android、HEMSなど)におけるデータ取得の仕様
(精度など)を理解しており、システム要件を満たせるか判断できる"###
24#3#データ収集#★★#クライアント技術#目的に適したログ取得項目を、対象プラットフォーム(iOS、Android、HEMSなど)で取得可能なデータを用いて設計できる###
25#4#データ収集#★★#クライアント技術#対象プラットフォームにおけるバッテリー消費や通信速度などを含めたシステム要件を作成できる###
26#5#データ収集#★★#クライアント技術#Webクローラーの仕組みを理解し使いこなせる###
27#6#データ収集#★★★#クライアント技術#取得するデータが増えることを想定し、拡張性を考慮したクライアントアプリケーション(ロガーなど)を設計できる###
28#7#データ収集#★★★#クライアント技術#プラットフォームの違いを吸収し、統一的にデータを取得するプログラムを実装できる###
29#8#データ収集#★#通信技術#対象プラットフォームに用意された機能(HTTP、FTP、SSHなど)を用い、データを収集先に格納するための機能を実装できる###
30#9#データ収集#★★#通信技術#データ収集対象の要件に応じて、MQTT(Message Queue Telemetry Transport)によるパブリッシュ/サブスクライブ型の通信を検討・実装できる###
31#10#データ収集#★★#通信技術#ネットワークプロトコルや暗号化などの通信技術を用い、通信のボトルネックと可用性(継続的に通信が成⽴していること)を考慮した上で、必要な通信機能を実装できる###
32#11#データ収集#★★★#通信技術#データ通信において、機能・性能の問題に対し根本原因を特定できるだけでなく、必要に応じて新規技術の適用を検討できる###
33#12#データ収集#★★#データ収集#既存のサービスやアプリケーションに対して、有効な分析をするためのログ出⼒の追加仕様を整理することができる#*#*#
34#13#データ収集#★★★#データ収集#⼊⼿可能なデータに加え、分析結果の品質・効果を向上させる新たなデータ⼊⼿⽅法を提案できる(IoTでの新設センサーの種類・配置場所・データ⼊⼿間隔など)#*#*#◯
35#14#データ収集#★#データ統合#同種のデータを統合するシステムを設計できる###◯
36#15#データ収集#★★★#データ統合#異種フォーマットが混在するデータを統合するシステムを設計できる###
37#16#データ収集#★★★#データ統合#システム分析・業務分析をもとに、必要なデータフロー管理やジョブ管理ツールを選定・評価できる###
38#1#データ構造#★#基礎知識#扱うデータが、構造化データ(顧客データ、商品データ、在庫データなど)なのか非構造化データ(雑多なテキスト、音声、画像、動画など)なのか判断できる###◯
39#2#データ構造#★#基礎知識#ER図を読んでテーブル間のリレーションシップを理解できる###◯
40#3#データ構造#★#要件定義#業務で使用するシステムのデータのライフサイクル(いつ、どんなデータが発生し、いつまで保持されているのかなど)を把握して、論理モデルを作成できる###◯
41#4#データ構造#★★#要件定義#データ保持ルール(データアクセス、性能、保持期間、セキュリティなど)に基づき、データベース・DWHの運用ルールを定義できる###
42#5#データ構造#★#テーブル定義#正規化⼿法(第一正規化〜第三正規化)を用いてテーブルを正規化できる###
43#6#データ構造#★★#テーブル定義#ビジネスプロセスを理解・整理して、データフロー図、論理データモデル、ER図、テーブル定義書を作成できる#*##◯
44#7#データ構造#★★#テーブル定義#業務特性や基幹システムの特徴をもとに、検索で頻繁に使用するデータのキー(顧客IDなど)を想定し、インデックスを作成・設定できる###
45#8#データ構造#★★#テーブル定義#データ集計を高速化またはSQLを単純化するため、スタースキーマ、スノーフレークスキーマなどを用いたデータモデルを設計できる###
46#9#データ構造#★★#テーブル設計#稼働中の複数のシステム間で発生するデータ項目の差異を、変換テーブルを活用して、埋めることができる###
47#10#データ構造#★★#テーブル設計#DWHに⼊れる元データ(基幹DBのデータなど)のキーに変更があった場合に、サロゲートキーやナビゲーションブリッジテーブルを用いて対応できる###
48#11#データ構造#★★★#テーブル設計#非正規化テーブルや一時テーブルなどを作成し、アプリケーションの処理速度を高速化できる###
49#1#データ蓄積#★#DWH#DWHアプライアンス(Oracle Exadata、IBM Pure Data/Netezza、Teradataなど)に接続し、複数テーブルを結合したデータを抽出できる###
50#2#データ蓄積#★★#DWH#DWHアプライアンス(Oracle Exadata、IBM Pure Data/Netezza、Teradataなど)の機能と特徴を理解し、適切な管理対象データを選定できる###
51#3#データ蓄積#★#分散技術#Hadoop・Sparkの分散技術の基本的な仕組みと構成を理解している###◯
52#4#データ蓄積#★#分散技術#NoSQLデータストア(HBase、Cassandra、Amazon DynamoDB、Cloudant、 Azure DocumentDBなど)にAPIを介してアクセスし、新規データを登録できる###
53#5#データ蓄積#★★#分散技術#分散処理環境のディストリビューションを導⼊できる(Hortonworks、CDHなど)###
54#6#データ蓄積#★★#分散技術#Hadoopの得意な点、苦⼿な点を理解し、Hadoopにて管理すべきデータを選定できる###
55#7#データ蓄積#★★#分散技術#KVSの特性(集計・ソートが苦⼿、データの一貫性保証など)を理解し、KVSがデータストア要件を満たすかを判断できる###
56#8#データ蓄積#★★★#分散技術#分散クラスタ構成が構築可能なRDBMS製品(Oracle RAC、DB2 Pure Scaleなど)を用いてスケールアウト可能なオンプレミス構成を設計できる###
57#9#データ蓄積#★★★#分散技術#Hadoop・Sparkの分散アーキテクチャを理解し、⼤容量データ処理のパフォーマンスチューニングができる###
58#10#データ蓄積#★#クラウド#クラウド上のストレージサービス(Amazon S3、Google Cloud Storage、 Bluemix Cloud Obect Storageなど)に接続しデータを格納できる###
59#11#データ蓄積#★★#クラウド#クラウド上のDWHサービス(Amazon Redshift、Google BigQuery、IBM dashDBなど)にデータをロードし公開できる###
60#12#データ蓄積#★★★#クラウド#クラウド上のデータストアサービスが機能面・非機能面で対象業務に合致するかの評価を⾏い、採用可否を判断できる###
61#13#データ蓄積#★★★#キャッシュ技術#基盤設計において、どこのシステム要素にmemcachedなどのキャッシュ機能を採用すると処理が高速化されるか判断できる###
62#14#データ蓄積#★★★#リアルタイムデータ分析#リアルタイムに⼊⼒されるストリームデータから指定条件のイベントを即時に抽出する複合イベント処理(CEP)を実現するサーバー環境・構成を設計できる###
63#15#データ蓄積#★★★#リアルタイムデータ分析#リアルタイムに連続して⼊⼒されるストリームデータの加⼯・集計処理を⾏うにあたり、Storm等のリアルタイム分散フレームワーク適用の有効性を判断できる###
64#16#データ蓄積#★★★#グリッドコンピューティング#分散処理のフレームワーク(Spark、Tezなど)を用いてアプリケーションの計算処理を複数サーバーに分散させる並列処理システムを設計できる###
65#17#データ蓄積#★★★#新規技術#データストアの技術動向に注目し、リレーショナルDBだけでなく、グラフDB・時系列DBなどの新規技術の検証・評価ができる###
66#1#データ加⼯#★#フィルタリング処理#数十万レコードのデータに対して、条件を指定してフィルタリングできる(特定値に合致する・もしくは合致しないデータの抽出、特定範囲のデータの抽出、部分文字列の抽出など)###◯
67#2#データ加⼯#★★#フィルタリング処理#"正規表現を活用して条件に合致するデータを抽出できる
(メールアドレスの書式を満たしているか判定をするなど)"###
68#3#データ加⼯#★#ソート処理#数十万レコードのデータに対して、レコード間で特定カラムでのソートができる。また、数千レコードのデータに対して、カラム間でソートできる###◯
69#4#データ加⼯#★#結合処理#数十万レコードのデータに対して、単一条件による内部結合、外部結合、自己結合ができる。また、UNION処理ができる###◯
70#5#データ加⼯#★#クレンジング処理#数十万レコードのデータに対して、NULL値や想定外・範囲外のデータを持つレコードを取り除く、または既定値に変換できる###◯
71#6#データ加⼯#★★#クレンジング処理#フラットファイルやバイナリファイルに対するデータロードの前処理(クレンジング操作、禁則処理やバイナリ処理)ができる###
72#7#データ加⼯#★★#クレンジング処理#線形補間など、複数のレコードを考慮したクレンジング処理ができる###
73#8#データ加⼯#★#マッピング処理#数十万レコードのデータに対して、規定されたリストと照合して変換する、都道府県名からジオコードに変換するなど、ある値を規定の別の値で表現できる###◯
74#9#データ加⼯#★★★#マッピング処理#データ定義や実際の観測データの状況をもとに、名寄せ処理を設計・実装できる###
75#10#データ加⼯#★#サンプリング処理#数十万レコードのデータに対して、ランダムまたは一定間隔にデータを抽出できる###◯
76#11#データ加⼯#★#集計処理#数十万レコードのデータを集計して、合計や最⼤値、最小値、レコード数を算出できる###◯
77#12#データ加⼯#★#変換・演算処理#数十万レコードのデータに対する四則演算ができ、数値データを日時データに変換するなど別のデータ型に変換できる###◯
78#13#データ加⼯#★★#変換・演算処理#数千万レコードのデータに対して、カラムナー型のデータに変換できる###
79#1#データ共有#★#データ出⼒#加⼯・分析処理結果をCSV、XML、Excelなどの指定フォーマット形式に変換してエクスポートできる###◯
80#2#データ共有#★#データ出⼒#加⼯・分析処理結果を、接続先DBのテーブル仕様に合わせてレコード挿⼊できる###◯
81#3#データ共有#★#データ展開#データ取得用のWeb API(REST)やWebサービス(SOAP)などを用いて、必要なデータを取得できる###
82#4#データ共有#★★#データ展開#利用者の要件に合致したレポート(図、表)を、PDFやPostScriptなどの印刷用フォーマットで出⼒する変換機能を設計できる###
83#5#データ共有#★★#データ展開#BIツール用のサーバーを構築し、単一データソースのレポート用DBを設計・構築できる###
84#6#データ共有#★★#データ展開#データストア上のデータをメールやメッセージ(Webサービスなど)を用いてプッシュ配信するシステムのサーバー・ネットワーク・ソフトウェアの構成を設計できる###
85#7#データ共有#★★#データ展開#Webアプリケーションの実装において、WebSocketを用いてクライアント側にリアルタイムにデータ提供できる機能を設計できる###
86#8#データ共有#★★#データ展開#RSS、RDFや業界標準フォーマットなど要件に合致したデータ形式・配信形式で、情報提供するシステムのインターフェースを設計できる###
87#9#データ共有#★★#データ展開#Web API(REST)やWebサービス(SOAP)などを用いて、必要なデータを提供するシステムの公開インターフェースを設計できる###
88#10#データ共有#★#データ連携#FTPサーバー、ファイル共有サーバーから必要なデータファイルをダウンロードして、Excelなどの表計算ソフトに取り込み活用できる###◯
89#11#データ共有#★#データ連携#BIツールのレポート編集機能を用いて新規レポートを公開できる###
90#12#データ共有#★#データ連携#BIツールの自由検索機能を活用し、必要なデータを抽出して、グラフを作成できる###
91#13#データ共有#★★#データ連携#連携対象システムの仕様に合わせて、ETLツールを用いたデータ変換、ファイル転送処理を実装できる###
92#14#データ共有#★★★#データ連携#ESB・EAIなどのデータ連携基盤を活用してシステム間のデータ連携(データ配信・交換)を⾏うインターフェースを設計できる###
93#1#プログラミング#★#基礎プログラミング#小規模な構造化データ(CSV、RDBなど)を扱うデータ処理(抽出・加⼯・分析など)を、設計書に基づき、プログラム実装できる###◯
94#2#プログラミング#★#データインタフェース#JSON、XMLなど標準的なフォーマットのデータを受け渡すために、APIを使用したプログラムを設計・実装できる###
95#3#プログラミング#★★#アルゴリズム#非効率なループ処理の性能向上などのために、計算量やメモリを意識したプログラム実装ができる###
96#4#プログラミング#★★★#アルゴリズム#最新の論文に発表された数式処理や機械学習ロジックをプログラム実装できる##*#
97#5#プログラミング#★★#拡張プログラミング#データ型を意識したプログラム設計・実装ができる(C⾔語での性能・誤差を意識したデータ型の実装、Pythonでのエラー時のデータ型を意識したデバッグなど)###
98#6#プログラミング#★★#拡張プログラミング#異なるタイプの複数の処理を効率よく⾏うために、スクリプトを用いたプログラムを設計・実装できる(パイプライン処理のluigiなど)###
99#7#プログラミング#★★#拡張プログラミング#GPU(GPGPU)を有効に活用できるライブラリを選択し、利用できる###
100#8#プログラミング#★★★#拡張プログラミング#GPU(GPGPU)環境において、演算速度を最適化するライブラリを有効に選択し、利用できる##*#
101#9#プログラミング#★★★#拡張プログラミング#対象プラットフォーム(iOS、Android、HEMSなど)におけるデータ取得の業界標準を理解しており、今後の技術動向や規制についてのリスクを提⽰できる###
102#10#プログラミング#★★#データ規模#SNSから抽出した非構造化データを、適切な⾔語やライブラリを選んでプログラム実装できる###
103#11#プログラミング#★★★#データ規模#単一サーバーの物理メモリを超える複数のデータソースを組み合わせたデータ処理において、分散処理アーキテクチャやデータのインメモリ処理の特性を意識してプログラム設計ができる###
104#12#プログラミング#★★#分析プログラム#分析プログラムのロジックと処理⼿順を理解した上で正しい分析結果を出⼒しているか検証ができる##*#◯
105#13#プログラミング#★★★#リアルタイム処理#ストリーミング処理や複合イベント処理(CEP)などを設計し、適切な⾔語やライブラリを選んでプログラム実装できる###
106#14#プログラミング#★#SQL#SQLで簡単なSELECT文を記述・実⾏できる(副問合せを含まない、2テーブル程度の結合と簡単なWHERE条件を含むSELECT文)###◯
107#15#プログラミング#★★#SQL#SQLの構文を一通り知っていて、記述・実⾏できる(DML・DDLの理解、各種JOINの使い分け、集計関数とGROUP BY、CASE文を使用した縦横変換、副問合せや EXISTSの活用など)###◯
108#16#プログラミング#★★★#SQL#RDBにおける分析関数の構文と挙動を理解し、分析関数を用いて複雑な副問合せや自己結合を解消できる###
109#17#プログラミング#★★★#SQL#N:Nの結合や完全外部結合の危険性(計算量の増⼤、結果の不完全性)、暗黙の型変換の危険性(インデックス不使用、小数点以下の切り捨てなど)を考慮したSQLを記述できる###
110#18#プログラミング#★★★#SQL#記述したSQLの実⾏計画の確認と判断ができ、SQLの修正やインデックス作成により、処理時間を⼤幅に改善するようなパフォーマンスチューニングができる###
111#19#プログラミング#★★#Pig/HiveQL/Spark SQL#HiveQLやSpark SQLを記述して、パーティションが切られているデータを適切に処理できる###
112#20#プログラミング#★★#Pig/HiveQL/Spark SQL#Pigを記述して列数・内容の異なる⾏が混在しているデータセットやネスト構造を持つデータセットを処理できる###
113#21#プログラミング#★★★#Pig/HiveQL/Spark SQL#HiveQL、Spark SQL、またはPigで使用するためのUDFが実装できる###
114#22#プログラミング#★★#分散処理#Scala⾔語を用いて、分散処理環境(Sparkなど)におけるロジックを設計・実装できる###
115#1#ITセキュリティ#★#基礎知識#セキュリティの3要素(機密性、可用性、完全性) について具体的な事例を用いて説明できる###◯
116#2#ITセキュリティ#★★#プライバシー#データ匿名化の⽅法を理解し、匿名化⽅法(ハッシュ化、マスキング、k-匿名化など)に応じた加⼯処理を設計できる###◯
117#3#ITセキュリティ#★#攻撃と防御⼿法#マルウェアなどによる深刻なリスクの種類(消失・漏洩・サービスの停⽌など)を常に意識している#*#*#◯
118#4#ITセキュリティ#★#攻撃と防御⼿法#OS、ネットワーク、アプリケーション、データに対するユーザーごとのアクセスレベルを⼿順に従い設定できる###
119#5#ITセキュリティ#★★#攻撃と防御⼿法#DoS攻撃、不正アクセス、マルウェア感染や内部不正などのセキュリティインシデントが発覚した場合に既存のルールに基づき対応できる###
120#6#ITセキュリティ#★★#攻撃と防御⼿法#OS、ネットワーク、アプリケーション、データに対するユーザーごとのアクセスレベルを設計できる###
121#7#ITセキュリティ#★★#攻撃と防御⼿法#SQLインジェクションやバッファオーバーフロー攻撃の概要を理解し、防⽌する対策を判断できる###
122#8#ITセキュリティ#★★★#攻撃と防御⼿法#なりすまし、改ざん、盗聴などのセキュリティ侵害を防御するための対策を特定できる###
123#9#ITセキュリティ#★★★#攻撃と防御⼿法#侵⼊検知システム(IDS)やファイアウォールなどを用いて、外部からの不正アクセスを検知、防御する環境を設計できる###
124#10#ITセキュリティ#★★★#攻撃と防御⼿法#個別の案件ごとに、依頼元との契約約款、依頼元がデータをどのように保持し利用するかに応じて、適切な匿名化の⼿法を選択し適用できる#*##
125#11#ITセキュリティ#★#暗号化技術#暗号化されていないデータは、不正取得された際に容易に不正利用される恐れがあることを理解し、データの機密度合いに応じてソフトウェアを使用した暗号化と復号ができる###◯
126#12#ITセキュリティ#★#暗号化技術#なりすましや偽造された文書でないことを証明するために電子署名と公開鍵認証基盤(PKI:public key infrastructure)が必要であることを理解している###
127#13#ITセキュリティ#★#暗号化技術#ハッシュ関数を用いて、データの改ざんを検出できる###
128#14#ITセキュリティ#★★#暗号化技術#SSHやSSL/TLSなどのセキュアプロトコルの概要と必要性を説明できる###
129#15#ITセキュリティ#★★#暗号化技術#DES、AES、RC4を用いたKerberos認証が使われる事例と仕組みを説明できる###


この記事が気に入ったらサポートをしてみませんか?