<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>機械学習 | ともぶろぐ</title>
	<atom:link href="https://tomoblog.net/category/programing/machinelearning/feed/" rel="self" type="application/rss+xml" />
	<link>https://tomoblog.net</link>
	<description>welcome to tomoblog</description>
	<lastBuildDate>Tue, 01 Aug 2023 14:19:40 +0000</lastBuildDate>
	<language>ja</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9</generator>

<image>
	<url>https://tomoblog.net/wp-content/uploads/2024/08/cropped-siteicon-32x32.png</url>
	<title>機械学習 | ともぶろぐ</title>
	<link>https://tomoblog.net</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>【機械学習】TensorFlow Liteとは？ 〜 実用例つき 〜</title>
		<link>https://tomoblog.net/programing/machinelearning/tensorflow-lite-2/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=tensorflow-lite-2</link>
					<comments>https://tomoblog.net/programing/machinelearning/tensorflow-lite-2/#respond</comments>
		
		<dc:creator><![CDATA[tomo]]></dc:creator>
		<pubDate>Sun, 24 Oct 2021 11:08:06 +0000</pubDate>
				<category><![CDATA[機械学習]]></category>
		<guid isPermaLink="false">https://sunnyday-travel-aso-6487.ssl-lolipop.jp/?p=2384</guid>

					<description><![CDATA[<p>今回の記事は機械学習関連の記事で、「TensorFlow Liteとは？」という方向けにTensorFlow Liteに関して実用例付きでご紹介する内容です。初心者にも分かりやすいように記載していくので是非参考にしてみて [&#8230;]</p>
The post <a href="https://tomoblog.net/programing/machinelearning/tensorflow-lite-2/">【機械学習】TensorFlow Liteとは？ 〜 実用例つき 〜</a> first appeared on <a href="https://tomoblog.net">ともぶろぐ</a>.]]></description>
										<content:encoded><![CDATA[<p>今回の記事は機械学習関連の記事で、「TensorFlow Liteとは？」という方向けにTensorFlow Liteに関して実用例付きでご紹介する内容です。初心者にも分かりやすいように記載していくので是非参考にしてみて下さい。</p>




  <div id="toc" class="toc tnt-number toc-center tnt-number border-element"><input type="checkbox" class="toc-checkbox" id="toc-checkbox-2" checked><label class="toc-title" for="toc-checkbox-2">目次</label>
    <div class="toc-content">
    <ol class="toc-list open"><li><a href="#toc1" tabindex="0">「TensorFlow Lite」の前に「TensorFlow」とは？</a></li><li><a href="#toc2" tabindex="0">「TensorFlow Lite」とは？</a></li></ol>
    </div>
  </div>

<h2 class="wp-block-heading"><span id="toc1">「TensorFlow Lite」の前に「TensorFlow」とは？</span></h2>



<p>「TensorFlow Lite」の前に「TensorFlow」について知る必要があります。TensorFlowは機械学習を行うための便利なライブラリです。TensorFlow Liteを理解する上でこの前提は必要です。</p>



<p>TensorFlowを使用して俗にいうAIモデル（AIの処理を行える脳のようなベース）を作成することができます。また、このようなライブラリは非常に多いのですが、その中でも産業系としては最も使用頻度が高いことが特徴的です。</p>



<p>ではTensorFlow Liteについてご紹介していきます。</p>



<h2 class="wp-block-heading"><span id="toc2">「TensorFlow Lite」とは？</span></h2>



<p>　TensorFlow Liteはエッジ端末用のAIモデルの種類のことを指します。なぜエッジ用端末で使用されるかですが、精度の高いAIエンジンは非常に有用ですが、処理が遅く高速処理を可能とする大規模なサーバでしか使用することが現実的ではありません。</p>



<p>そのため、スマホやカメラなどのエッジ用端末で利用できるように軽量なAIモデルを作成する必要が産業業界では欠かせないのです。この軽量モデルの一つに先ほど紹介したTensorFlow Liteがあります。</p>



<p>つまり「TensorFlow Liteとは？」という疑問に関しては「エッジ用端末で利用できるようになった軽量なAIモデル」というのが回答になります。</p>



<p></p>



<p>では今回の記事は以上です。他にも多数の機械学習関連の記事を記載しております。是非興味ある方は他の記事も参考にしてみて下さい。</p>The post <a href="https://tomoblog.net/programing/machinelearning/tensorflow-lite-2/">【機械学習】TensorFlow Liteとは？ 〜 実用例つき 〜</a> first appeared on <a href="https://tomoblog.net">ともぶろぐ</a>.]]></content:encoded>
					
					<wfw:commentRss>https://tomoblog.net/programing/machinelearning/tensorflow-lite-2/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>【G検定】勉強期間2週間でG検定合格した勉強法ご紹介。</title>
		<link>https://tomoblog.net/programing/machinelearning/gkente-study/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=gkente-study</link>
					<comments>https://tomoblog.net/programing/machinelearning/gkente-study/#respond</comments>
		
		<dc:creator><![CDATA[tomo]]></dc:creator>
		<pubDate>Mon, 20 Sep 2021 08:46:14 +0000</pubDate>
				<category><![CDATA[機械学習]]></category>
		<guid isPermaLink="false">https://sunnyday-travel-aso-6487.ssl-lolipop.jp/?p=4901</guid>

					<description><![CDATA[<p>今回の記事は私がG検定に受かった際に行った勉強の方法をご紹介します。社会人で時間がない方などでも2週間で仕事と並行してしっかり合格することが可能になると思うので是非参考にしてみて下さい。 目次 勉強期間2週間でG検定合格 [&#8230;]</p>
The post <a href="https://tomoblog.net/programing/machinelearning/gkente-study/">【G検定】勉強期間2週間でG検定合格した勉強法ご紹介。</a> first appeared on <a href="https://tomoblog.net">ともぶろぐ</a>.]]></description>
										<content:encoded><![CDATA[<p>今回の記事は私がG検定に受かった際に行った勉強の方法をご紹介します。社会人で時間がない方などでも2週間で仕事と並行してしっかり合格することが可能になると思うので是非参考にしてみて下さい。</p>



<p></p>




  <div id="toc" class="toc tnt-number toc-center tnt-number border-element"><input type="checkbox" class="toc-checkbox" id="toc-checkbox-4" checked><label class="toc-title" for="toc-checkbox-4">目次</label>
    <div class="toc-content">
    <ol class="toc-list open"><li><a href="#toc1" tabindex="0">勉強期間2週間でG検定合格までの準備</a></li><li><a href="#toc2" tabindex="0">G検定のテストについて</a></li><li><a href="#toc3" tabindex="0">勉強期間2週間でG検定合格した勉強法</a></li></ol>
    </div>
  </div>

<h2 class="wp-block-heading"><span id="toc1">勉強期間2週間でG検定合格までの準備</span></h2>



<p>まずはテストに関して知ることです。</p>



<ul class="wp-block-list"><li>どのような問題が出るか</li><li>問題数は多いか</li><li>時間は足りるか</li><li>合格点はあるか</li><li>試験の受け方</li></ul>



<p>このような点はその年度の状況もあると思うので各自調べましょう。</p>



<p>これを調べ終えた際に気づくと思います。</p>



<p class="has-red-color has-text-color">問題数が多すぎる。</p>



<p>これは用語などを覚える前に時間配分は考える必要があります。</p>



<p>用語などを覚える際ですが、G検定の公式ブックみたいなのが会社にあったためそれを利用しました。結論から言うとこれに書いてあることは出題率20%程度で正直なくてもよかったかもです。</p>



<figure class="wp-block-image size-large is-resized"><img decoding="async" src="https://tomoblog.net/wp-content/uploads/2021/07/スクリーンショット-2021-07-18-17.11.59.png" alt="" class="wp-image-4501" width="136" height="166"/></figure>



<p>また、これは確実に知っておく必要がありますが、G検定は基本的に自身のPCで受験可能です。その為、カンペシートは準備しておいて良いと思います。もしくは参考になる記事など。自身で作成したカンペシートを使おうと頑張ってまとめたものを一応リンク付けておきます。こちらを「ctrl + F」で単語を引っかけまくって使いましょう。</p>



<p>「<a target="_blank" href="https://tomoblog.net/programing/machinelearning/gkente/">G検定カンペシート</a>」</p>



<p>じゃあカンペだけでいいんじゃないかと考える方もいるかと思います。しかし、問題に慣れておく必要は確実にあるため、そのために少しは勉強が必要です。</p>



<p>一体どんな問題が出るのかテストの内容に関してもご紹介しておきます。</p>



<h2 class="wp-block-heading"><span id="toc2">G検定のテストについて</span></h2>



<p>テスト問題は法律関係が多く出題されます。法律問題は出題範囲が広く、検索でも引っかかりずらいので難易度が高い問題と言えます。しかし、ある程度のモラルがあれば解ける問題が多いです。</p>



<p>例えば、</p>



<p class="has-watery-blue-background-color has-background">AIに関する法律で正しいものは？<br>①明らかに違うもの<br>②正解<br>③少し考える問題<br>④明らかに違うもの</p>



<p>このような感じの構成の問題が多いので知らなくても判断つくものが多いですし、検索範囲も狭まります。</p>



<p>用語関連は知っているもの以外はカンペシートとネット検索を駆使し、どうしてもわからない場合、後で見直すにチェックを入れて先に進むことが重要です。</p>



<p>また、テストを受ける際に気づいたのですが、テスト問題はコピーできないようになっているので検索は文字入力の必要があります。</p>



<p>では勉強法に関してご紹介していきます。</p>



<h2 class="wp-block-heading"><span id="toc3">勉強期間2週間でG検定合格した勉強法</span></h2>



<p>これにつきます。</p>



<p class="has-watery-yellow-background-color has-background">G検定公式テキストを読む（ある程度AIに関して理解できている方はいらない）</p>



<p>↓</p>



<p class="has-watery-yellow-background-color has-background"><a rel="noopener" target="_blank" href="https://study-ai.com/generalist/">Study-AI</a>の問題を解きまくる。</p>



<p>↓</p>



<p class="has-watery-yellow-background-color has-background">間違った問題の用語を調べて理解する。</p>



<p>↓</p>



<p class="has-watery-yellow-background-color has-background">これの繰り返し</p>



<p>Study-AIは私が受験した際はまだ無料でしたので登録した問題を解きます。練習版みたい30問程度の簡易的なテストで、ある程度時間が足りないことは理解できるので自分なりに答え合わせ件用語調べるを行い、再度問題をとくことで知識として定着します。</p>



<p>この流れで自身のカンペシートを作成し、当日頑張ると言うのが最も最短な勉強方法かと思います。</p>



<p>今回の記事は以上です。他にも機械学習関連の記事を記載しているので是非参考にして下さい。</p>The post <a href="https://tomoblog.net/programing/machinelearning/gkente-study/">【G検定】勉強期間2週間でG検定合格した勉強法ご紹介。</a> first appeared on <a href="https://tomoblog.net">ともぶろぐ</a>.]]></content:encoded>
					
					<wfw:commentRss>https://tomoblog.net/programing/machinelearning/gkente-study/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>【機械学習用語】ADF検定とは？</title>
		<link>https://tomoblog.net/programing/machinelearning/adf/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=adf</link>
					<comments>https://tomoblog.net/programing/machinelearning/adf/#respond</comments>
		
		<dc:creator><![CDATA[tomo]]></dc:creator>
		<pubDate>Mon, 20 Sep 2021 07:54:19 +0000</pubDate>
				<category><![CDATA[機械学習]]></category>
		<guid isPermaLink="false">https://sunnyday-travel-aso-6487.ssl-lolipop.jp/?p=2738</guid>

					<description><![CDATA[<p>今回の記事は時系列データ分析の際に使用されるADF検定についてのご紹介です。主に時系列データを分析する際に主に使用されます。用語がわからない方は是非参考にしてみて下さい。 ADF検定とは？ まず一言でざっくり回答すると「 [&#8230;]</p>
The post <a href="https://tomoblog.net/programing/machinelearning/adf/">【機械学習用語】ADF検定とは？</a> first appeared on <a href="https://tomoblog.net">ともぶろぐ</a>.]]></description>
										<content:encoded><![CDATA[<p>今回の記事は時系列データ分析の際に使用されるADF検定についてのご紹介です。主に時系列データを分析する際に主に使用されます。用語がわからない方は是非参考にしてみて下さい。</p>



<h2 class="wp-block-heading">ADF検定とは？</h2>



<p>まず一言でざっくり回答すると「分析対象（検定対象）のデータが定常か非定常かを判定する検定」のことをADF検定と言います。</p>



<p>その手法自体は簡単に説明が難しいのですが「非定常過程」のデータの場合は「単位根過程」であると言えます。それを否定することでこのデータは定常であるという手法ですがこれを難しくいうと「帰無仮説「過程が単位根である」が棄却されれば定常過程」という具合です。</p>



<p>まあ要するに『「定常過程」であることを証明するために、「単位根」であること（すなわち「非定常過程」であること）を否定する検定のこと』がざっくりというとADF検定のことを表しています。</p>The post <a href="https://tomoblog.net/programing/machinelearning/adf/">【機械学習用語】ADF検定とは？</a> first appeared on <a href="https://tomoblog.net">ともぶろぐ</a>.]]></content:encoded>
					
					<wfw:commentRss>https://tomoblog.net/programing/machinelearning/adf/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>【G検定】用語一覧カンペシート。〜 300語以上網羅 〜</title>
		<link>https://tomoblog.net/programing/machinelearning/gkente/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=gkente</link>
					<comments>https://tomoblog.net/programing/machinelearning/gkente/#respond</comments>
		
		<dc:creator><![CDATA[tomo]]></dc:creator>
		<pubDate>Tue, 20 Jul 2021 15:51:12 +0000</pubDate>
				<category><![CDATA[機械学習]]></category>
		<guid isPermaLink="false">https://sunnyday-travel-aso-6487.ssl-lolipop.jp/?p=4497</guid>

					<description><![CDATA[<p>今回の記事はG検定でよく出る用語をまとめた用語一覧カンペシートです。私が受講した際の試験勉強用に作成し、勉強することで試験に合格することができました。G検定を受講しようと考えている方は是非参考にしてください。 「【G検定 [&#8230;]</p>
The post <a href="https://tomoblog.net/programing/machinelearning/gkente/">【G検定】用語一覧カンペシート。〜 300語以上網羅 〜</a> first appeared on <a href="https://tomoblog.net">ともぶろぐ</a>.]]></description>
										<content:encoded><![CDATA[<p>今回の記事はG検定でよく出る用語をまとめた用語一覧カンペシートです。私が受講した際の試験勉強用に作成し、勉強することで試験に合格することができました。G検定を受講しようと考えている方は是非参考にしてください。</p>



<p>「<a target="_blank" href="https://tomoblog.net/programing/machinelearning/gkente-study/">【G検定】2週間で合格できる勉強方法</a>」</p>



<h2 class="wp-block-heading">G検定用語一覧カンペシート</h2>



<p>用語と知っておくべき知識のみまとめた程度ですが、検索に引っかかる必要性があるので用語と説明を対で紹介していきます。検索「<span style="color:#e60033" class="tadv-color"><strong>Ctrl＋F</strong></span>」で調べてみて下さい。</p>



<p class="has-watery-blue-background-color has-background"><strong>AIの定義</strong><br>専門家の間で共有されている定義はない。<br>人工知能であるかどうかは「人によって違う」<br>「推論、認識、判断など、人間と同じ知的な処理能力を持つ機械（情報処理システム）」<br>「人工的につくられた人間のような知能、ないしはそれをつくる技術」<br>「明示的にプログラムしなくても学習する能力をコンピュータに与える研究分野」<br>「周囲の状況（入力）によって行動（出力）を変えるエージェント（プログラム）」</p>



<p class="has-watery-red-background-color has-background"><strong>AI効果</strong><br>人工知能の原理がわかると「単純な自動化である」とみなしてしまう人間の心理のこと。</p>



<p class="has-watery-blue-background-color has-background"><strong>ENIAC（エニアック）</strong><br>1946年、アメリカ ペンシルバニア大学で生まれた世界初の汎用電子式コンピュータ。</p>



<p class="has-watery-red-background-color has-background"><span style="background-color:#fdf2f2" class="tadv-background-color"><strong>ダートマス会議</strong><br>1956年、アメリカで開催<br>ジョン・マッカーシーが初めて「人工知能（AI）」という言葉を使った世界初の人工知能プログラムといわれるロジック・セオリストのデモを実施。</span></p>



<p class="has-watery-blue-background-color has-background"><strong>第1次AIブーム</strong><br>推論・探索が中心。<br>トイ・プロブレム（おもちゃの問題）は解けても、現実の問題は解けないことが判明。<br><strong>第2次AIブーム</strong><br>エキスパートシステムが流行し、ナレッジエンジニアが必要とされた。<br>第五世代コンピュータという大型プロジェクト推進、エキスパートシステムに取り組んだ。<br>知識の蓄積・管理は大変ということに気づく。第五世代コンピュータとは、通商産業省（現経済産業省）が1982年に立ち上げた国家プロジェクトの開発目標である。<br><strong>第3次AIブーム</strong><br>機械学習・特徴表現が中心。ビッグデータによる機械学習、特徴量によるディープラーニング（深層学習）が流行。</p>



<p class="has-watery-red-background-color has-background"><strong>幅優先探索<br></strong>最短距離の解が必ずわかる。すべてを記憶するためメモリ容量が必要。<br><strong>深さ優先探索</strong><br>メモリは少なめでよいが、最短距離が必ずわかるわけではない。</p>



<p class="has-watery-blue-background-color has-background"><strong>STRIPS</strong><br>Stanford&nbsp;Research Institute Problem Solver<br>自動計画に関する人工知能の一種。前提条件、行動、結果を記述する。</p>



<p class="has-watery-red-background-color has-background"><strong>DeepBlue（ディープブルー）</strong><br>1996年IBM製作。「力任せの探索」だったが、チェスの世界チャンピオンを破った。<br>力まかせ探索（Brute-force search）またはしらみつぶし探索（Exhaustive search）は、単純だが非常に汎用的な計算機科学の問題解決法であり、全ての可能性のある解の候補を体系的に数えあげ、それぞれの解候補が問題の解となるかをチェックする方法である。</p>



<p class="has-watery-blue-background-color has-background"><strong>ボンクラーズ</strong><br>2012年が将棋において永世棋聖に勝利。<br><strong>ponanza</strong><br>2013年将棋において現役プロ棋士に勝利。</p>



<p class="has-watery-red-background-color has-background"><strong>AlphaGo（アルファ碁）</strong><br>2016年が韓国のプロ棋士に勝利。ディープラーニングが使われた。</p>



<p class="has-watery-blue-background-color has-background"><strong>elmo</strong><br>2017年。が世界コンピュータ将棋選手権において ponanza に勝利。elmo 同士の対戦を行うことで学習を行った。</p>



<p class="has-watery-red-background-color has-background"><strong>Mini-Max法</strong><br>完全情報零和ゲーム向き。<br>ゲームの始まりの状態から各局面をゲーム木として表現したものです。分岐点を接点、またはノードトいいます。子ノードがないのーどを葉、ノード以下の分岐を枝といいます。α-β法という効率的な手法がある。</p>



<p class="has-watery-blue-background-color has-background"><strong>α-β法</strong><br>α-β法はminimax法のアルゴリズム内で使用される効率化手法のことです。αがそれまでに発見した自身で最も大きな評価値。βがそれまでに発見した相手側で最も小さいもの。αβの制限値が現れた場合カットを行う。</p>



<p class="has-watery-red-background-color has-background"><strong>モンテカルロ法</strong><br>プレイアウト（ゲームを一度終局までもっていく）の結果、どの方法が一番勝率が高いかを評価する。デメリットとしてブルートフォース（力任せな方法）のため、組合せが多いと計算しきれない。</p>



<p class="has-watery-blue-background-color has-background"><strong>ELIZA（エライザ）</strong><br>1966年。ジョセフ・ワイゼンバウム。「人工無能」の元祖。精神科セラピストを演じた。パターンに合致したら返答する「ルールベース」である。イライザ効果：あたかも本物の人間と話しているように錯覚すること。その後開発されたPARRYと会話した記録が残されており（RFC439）、中でもICCC1972が有名。</p>



<p class="has-watery-red-background-color has-background"><strong>エキスパートシステム</strong><br><strong>DENDRAL</strong><br>1960年代、スタンフォード大学、エドワード・ファイゲンバウム。未知の有機化合物を特定する。質量分析法で分析。<br><strong>マイシン（MYCIN）</strong><br>1970年、スタンフォード大学。ルールベースで血液中のバクテリアの診断支援。正解確率の高い細菌名のリスト、信頼度、推論理由、推奨される薬物療法コースを示した。精度は専門医の80%に対し、69%。</p>



<p class="has-watery-blue-background-color has-background"><strong>意味ネットワーク（セマンティックネットワーク）</strong><br>人間の記憶の一種である意味記憶の構造を表すためのモデル。単語同士の意味関係をネットワークによって表現する。概念を表す節（ノード）と、概念の意味関係を表す辺（エッジ）からなる、有向グラフまたは無向グラフである。</p>



<p class="has-watery-red-background-color has-background"><strong>Cycプロジェクト</strong><br>1984年、ダグラス・レナート。すべての一般知識を取り込もうという活動。2001年からはOpenCycとして公開。</p>



<p class="has-watery-blue-background-color has-background"><strong>オントロジー（ontology）</strong><br>トム・グルーバーが提唱。知識を体系化する方法論で、「概念化の明示的な仕様」（知識を記述するための仕様）と定義されている。知識の形式表現であり、あるドメインにおける概念間の関係のセットである。is-a関係、part-of関係。<br>「人がどの様に情報の意味を理解しているか」を、コンピュータに分かるようにするためにはどうすれば良いか、そもそもの知識の共有化や再利用が難しくなるため、記述ルールの標準化が必要。​</p>



<p class="has-watery-red-background-color has-background" id="-セマンティックウェブ"><strong>セマンティックウェブ</strong><br>W3Cのティム・バーナーズ＝リーによって提唱されたプロジェクト。ウェブページの意味を扱うことでワールド・ワイド・ウェブの利便性を向上させるもの。オントロジーを利用。情報リソースに意味を付与することが目的で、コンピュータで高度な意味処理を実現したり、文書の意味に即した処理が行えるようにする。</p>



<p class="has-watery-blue-background-color has-background" id="-ヘビーウェイトオントロジー重量オントロジー"><strong>ヘビーウェイトオントロジー（重量オントロジー）</strong><br>人間が厳密にしっかりと考えて知識を記述していくアプローチ。構成要素や意味的関係の正統性については、哲学的な考察が必要。<br><strong>ライトウェイトオントロジー（軽量オントロジー）</strong><br>コンピュータにデータを読み込ませ、自動で概念間の関係性を見つけるアプローチ。完全に正でなくても使えればOKと考える。ウェブマイニング、データマイニングで利用される。</p>



<p class="has-watery-red-background-color has-background"><strong>ワトソン</strong><br>IBM製作のAI。クイズで優勝が有名。</p>



<p class="has-watery-blue-background-color has-background"><strong>SuperVision</strong><br>2012年、トロント大学、ジェフリー・ヒントン。ILSVRC（Imagenet Large Scale Visual Recognition Challenge）2012 で勝利した。エラー率は26%台から15.3%へ劇的に改善。その後、2015年に人間の認識率（約5.1%）を抜いた。AlexNet（畳み込みニューラルネットワーク、CNN）を採用。サポートベクターマシンからCNN。</p>



<p class="has-watery-red-background-color has-background"><strong>フレーム問題</strong><br>1969年、ジョン・マッカーシーとパトリック・ヘイズが提唱。人工知能における重要な難問の一つ。有限の情報処理能力しかないロボットには、現実に起こりうる問題全てに対処することができない。ダニエル・デネットは考えすぎて何も解決できないロボットを例示し、フレーム問題の難しさを伝えた。</p>



<p class="has-watery-blue-background-color has-background"><strong>強いAI・弱いAI</strong><br>ジョン・サールが提唱。人間のような心、自意識を持つAIが強いAI。汎用型と呼ばれる。弱いAIは、便利な道具であればよいという考え方によるAI。特化型AI。</p>



<p class="has-watery-red-background-color has-background" id="-中国語の部屋"><strong>中国語の部屋</strong><br>ジョン・サールが論文で発表した。強いAIは実現不可能だという思考実験。中国語を理解できない人を小部屋に閉じ込めて、マニュアルに従った作業をさせるという内容。チューリング・テストを発展させた思考実験で、意識の問題を考えるのに使われる。</p>



<p class="has-watery-blue-background-color has-background" id="3-5シンボルグラウンディング問題"><strong>シンボルグラウンディング問題</strong><br>スティーブン・ハルナッド。記号（シンボル）と現実世界の意味はどのようにして結びつけられるのかという問題。外部世界を内部化（記号化、シンボル化）した時点で、外界との設置（クラウディング）が切れてしまうという問題。</p>



<p class="has-watery-red-background-color has-background" id="-seq2seq"><strong>seq2seq</strong><br>再帰型ニューラルネットワーク（RNN）を使った文の生成モデル。時系列データを入力し、時系列データを出力する。別の言語に置き換えたり（翻訳）、質問を回答に置き換えたり（質問・回答）できる。ブレイクスルー。2014Googleによって発表。Seq2SeqはEncoderとDecoderを持つ。</p>



<p class="has-watery-blue-background-color has-background"><strong>チューリングテスト</strong><br>アランチューリングが考案したテスト。AIかどうか判別するためのテスト。</p>



<p class="has-watery-red-background-color has-background"><strong>シンギュラリティ</strong><br>技術的特異点。2029年に人工知能が人間よりも賢くなる。2045年はシンギュラリティの到来（2045年問題ともいわれる）。</p>



<p class="has-watery-blue-background-color has-background"><strong>ロジスティック回帰</strong><br>活性化関数としてシグモイド関数を使い、重回帰分析により二値分類を行う。シグモイド関数は&nbsp;対数オッズ（ロジット）の逆関数である。（ロジット変換（正規化））対数をとる前のオッズとは、ある事象が起こる確率pと起こらない確率1−pの比のこと。最小化を行う関数として尤度関数が用いられる。教師あり。<br><strong>ロジスティックの応用例</strong><br>複数の変数から分析を行う場合に使用されます。<br>簡単に言うと変数Xから判明していない結果Yを予測するため、また、すでに出ている結果を説明するために用いられる関係式。<br>関係式は説明変数として与えられるX１、X２などと目的関数が存在し、目的関数が1に近いほどその確率が起きやすいといえる。</p>



<p class="has-watery-red-background-color has-background"><strong>多クラスロジスティック回帰</strong><br>活性化関数に&nbsp;<strong>ソフトマックス関数</strong>&nbsp;を利用し、多クラス分類を行う。教師あり。</p>



<p class="has-watery-blue-background-color has-background"><strong>ランダムフォレスト</strong>&nbsp;(random forest)<br>ブートストラップサンプリングにより、アンサンブル学習を行う。教師あり。</p>



<p class="has-watery-red-background-color has-background"><strong>アンサンブル学習</strong><br><strong>バギング</strong><br>アンサンブル学習の一つ。データ全体からランダムに一部データを用いて、複数のモデルを作る（学習する）方法。並列処理になる。<br>XYZという特徴があった場合、XYのみ、YZのみの特徴を含むモデルを作るなどが考えられます。<br><strong>ブースティング</strong>&nbsp;(boosting)<br>アンサンブル学習の一つ。一部のデータを繰り返し抽出し、複数のモデルを学習させる。逐次処理のため、ランダムフォレストより時間がかかる。初めに作成したモデルに対して弱かった箇所に対して重み図家を行い、モデルを再度反復学習させる。この流れを繰り返して最終的にすべてをまとめる。<br><strong>スタッキング</strong><br>最後に上級者向けとも言えるスタッキングについて簡単に説明をします。スタッキングとは言葉の通りモデルを積み上げていく方法です。上手く利用することによりバイアスとバリアンスをバランスよく調整する事が可能です。<br><strong>アダブースト</strong><br>アンサンブル学習の手法の一つ<br>ランダムよりも少し精度が良い識別機を組み合わせて、強い識別機を作成しようとするモデル。弱識別機を組み合わせるため正確に分類されやすい。弱い点はノイズ・異常値に弱い。</p>



<p class="has-watery-blue-background-color has-background"><strong>サポートベクターマシン</strong><br>コンセプトは要素間のマージンの最大化を行うこと。教師あり。</p>



<p class="has-watery-red-background-color has-background"><strong>スラック変数</strong><br>誤分類を許容する工夫をする、線形分離不可能なデータのマージンを最大化する。</p>



<p class="has-watery-blue-background-color has-background"><strong>カーネル法</strong><br>カーネル関数により高次元への写像を行い線形分離可能にする。</p>



<p class="has-watery-red-background-color has-background"><strong>カーネルトリック</strong><br>写像の際に計算が複雑にならないように式変形するテクニック。計算量を大幅に削減する。</p>



<p class="has-watery-blue-background-color has-background"><strong>k-means法</strong><br>クラスタリングの手法。教師なし学習。課題はクラスタリングを行う処理の初期値の取り方により結果が異なる。（偏りが生じる）kNN法はクラス分類（教師あり学習）の手法。</p>



<p class="has-watery-red-background-color has-background"><strong>主成分分析（PCA）</strong><br>次元削減の手法のひとつ。相関のある多数の変数から、特徴をよく表している成分（主成分）を特定し要約することで次元を削減する。寄与率は各成分の重要度を表す。教師なし学習。</p>



<p class="has-watery-blue-background-color has-background" id="-強化学習"><strong>強化学習</strong><br>エージェントの目的は収益（報酬・累積報酬）を最大化する方策を獲得すること。エージェントが行動を選択することで状態が変化し、最良の行動を選択する行為を繰り返す。状態 →（方策により）行動 → 収益を獲得 → 次の状態 →と遷移する。</p>



<p class="has-watery-red-background-color has-background" id="-強化学習"><strong>ホールドアウト検証</strong><br>データを訓練データとテストデータに分割（例えば７：３）し利用する。訓練データでの学習によりモデルを構築し、テストデータで検証を行う。交差検証の一種と説明されることもあるが、データを交差させないため交差検証ではない。</p>



<p class="has-watery-blue-background-color has-background"><strong>k-分割交差検証</strong><br>テストデータをk個に分割し、ひとつをテストデータ、その他を訓練データとする。テストデータを順次入れ替えることで、少ないテストデータでもより安定したモデルを選択できる。</p>



<p class="has-watery-red-background-color has-background" id="-リストワイズ法"><strong>リストワイズ法</strong><br>欠損があるサンプルをそのまま削除する方法。欠損に偏りがある場合はデータの傾向を変えてしまうので注意が必要。</p>



<p class="has-watery-blue-background-color has-background" id="-回帰補完"><strong>回帰補完</strong><br>欠損しているある特徴量と相関が強い他の特徴量が存在している場合に有効。</p>



<p class="has-watery-red-background-color has-background" id="-ワンホットエンコーディング"><strong>ワンホットエンコーディング</strong><br>順序を持たないデータの場合、各カテゴリごとにダミー変数を割り当てる。</p>



<p class="has-watery-blue-background-color has-background"><strong>混同行列</strong><br>正解率は陽性・陰性を含めた全正解数に対する、予測での正解数。全体の精度を上げたい場合の評価項目。<br>適合率は予測での陽性数に対する、実際の陽性数（陽性だ！と思ったものがどれくらい合っているか）。偽陽性を削減したい場合の評価項目。<br>再現率は実際の全陽性に対する、予測での陽性正解数（すべての陽性に対し、予測でどれくらい陽性が再現できているか）。偽陰性を削減したい場合の評価項目。適合率と再現率は相反関係にある。<br>F値は適合率と再現率の調和平均です。</p>



<p class="has-watery-red-background-color has-background"><strong>過学習</strong><br>訓練データに特化した状態になっているAI。訓練データが少ないや、層が複雑など様々な要因がある。過学習を抑える手法がたくさんある。L1正則化、L2正則化やドロップアウトなど。</p>



<p class="has-watery-blue-background-color has-background"><strong>単純パーセプトロン</strong><br>線形回帰のみしかできない。多層化することで多層ネットを実現し、非線形分類が出来るようになった。</p>



<p class="has-watery-red-background-color has-background"><strong>ディープラーニング</strong><br>概念としては1980年からのもの。勾配消失問題のため実装は難しかったが、誤差逆伝播の考えで勾配消失を抑えることに成功。</p>



<p class="has-watery-blue-background-color has-background"><strong>バッチサイズ</strong><br>イテレーションで用いるデータセットのサンプル数。全データをバッチサイズで切り分ける。</p>



<p class="has-watery-red-background-color has-background"><strong>イテレーション</strong><br>重みの更新を行う回数。データセットに含まれるデータが少なくとも１回は実行されるようにする学習回数。データセットとバッチサイズが決まれば、イテレーションは自動的に決まる。イテレーション＝データセット／バッチサイズ。</p>



<p class="has-watery-blue-background-color has-background"><strong>エポック</strong><br>訓練データを学習に用いた回数。データセットのバッチサイズ分割からイテレーション実行までの処理を繰り返す回数のこと。エポック数が２の場合、データセットを２回使うことになる。（重みの更新回数＝イテレーション数×バッチ数×２）</p>



<p class="has-watery-red-background-color has-background"><strong>オートエンコーダー</strong><br>ジェフリー・ヒントンが提唱したもの。入力と出力が同じで何を削減していいかを学習する教師なし学習。次元削減が可能。</p>



<p class="has-watery-blue-background-color has-background"><strong>ファインチューニング</strong><br>積層オートエンコーダにロジスティック回帰層（あるいは線形回帰層）を追加し、仕上げの学習を行う。</p>



<p class="has-watery-red-background-color has-background"><strong>深層信念ネットワーク</strong><br>ジェフリー・ヒントンが提唱。確定的モデルに分類。具体的には、教師なし学習による事前学習（制限付きボルツマンマシン）により効率的な学習を実現。</p>



<p class="has-watery-blue-background-color has-background"><strong>目的関数</strong><br>最適化問題で最大化or最小化させる関数。<br>例えばy=axの値が最大になるものもしくは最小になるものを探すためのy=axの関数自体を目的関数という。</p>



<p class="has-watery-red-background-color has-background"><strong>ナイーブベイズ法</strong><br>ベイズの定理を使った分類法。事象Aが起きうるという条件の下で事象Bが起きる確率を求める式。</p>



<p class="has-watery-blue-background-color has-background"><strong>階層型クラスタリング（群平均法）</strong><br>デンドログラムが利用されるクラスタリング手法。</p>



<p class="has-watery-red-background-color has-background"><strong>非階層型クラスタリング</strong><br>DBSCAN（密度ベース）、k-means（重心からの距離）主成分分析、次元削減の手法。</p>



<p class="has-watery-blue-background-color has-background"><strong>t-SNE</strong><br>次元圧縮手法。高次元での距離分布が低次元の距離分布にも合致するよう非線形型の変換を行う手法。</p>



<p class="has-watery-red-background-color has-background"><strong>コールドスタート問題</strong><br>類似ユーザの特徴データや評価データ、類似アイテムの特徴を用いて解決を行う問題のこと。</p>



<p class="has-watery-blue-background-color has-background"><strong>ブラックボックス問題</strong><br>AIが出した答えがどのように出されたかわからない問題のこと。説明可能なAIの作成が求められている。</p>



<p class="has-watery-red-background-color has-background"><strong>オッカムのカミソリ</strong><br>Lassoなどのスパースモデリング手法。</p>



<p class="has-watery-blue-background-color has-background"><strong>バーニーおじさんのルール</strong><br>ニューラルネットワークの重みパラメーターの数に対して、最低限その10倍以上の訓練データ量が必要となる。</p>



<p class="has-watery-red-background-color has-background"><strong>モラベックのパラドックス</strong><br>人工知能（AI）やロボット工学の研究所が発見したパラドックスで、「高度な推論よりも感覚運動スキルの方が多くの計算資源を要する」こと。</p>



<p class="has-watery-blue-background-color has-background"><strong>醜いアヒルの子定理</strong><br>何らかの「仮定（＝事前知識や偏向、帰納バイアス）」がないと「分類（＝類似性の判断）」は（理論上）不可能である、ということを主張する定理。</p>



<p class="has-watery-red-background-color has-background"><strong>AI規制枠組み規則案<br></strong>2021年4月にEUで発表。安全性や基本的人権に悪影響を及ぼすAIシステムは規制対象とすること。</p>



<p class="has-watery-blue-background-color has-background"><strong>人間中心のAI社会原則</strong><br>「基本理念」　多様な背景を持つ人々が多様な幸せを追求できること、持続性のある社会を実現できること<br>「基本原則」　セキュリティを確保できること</p>



<p class="has-watery-red-background-color has-background"><strong>ネオコグニトロン</strong><br>人間の視覚を模倣。畳み込みNNの先駆け、1980年代福島さんによって提案、２つの層（S、C層）が積み重なっている。</p>



<p class="has-watery-blue-background-color has-background"><strong>cutout（カットアウト）<br></strong>少ないデータでも学習できる、類似手法（Random Erasing）、マスクする領域はどのデータセットでも同一の正方形で固定値0。</p>



<p class="has-watery-red-background-color has-background"><strong>Random Erasing<br></strong>Cutoutよりも少し複雑、長方形値をランダムにマスク、画像全体のマスク、物体ごとにマスク、両方を組み合わせるマスクのオプションあり。</p>



<p class="has-watery-blue-background-color has-background"><strong>Mixup<br></strong>二つの画像を合成して新しいサンプルを作成する。</p>



<p class="has-watery-red-background-color has-background"><strong>Augmix<br></strong>2つの画像を合成して新しいサンプルを作成する手法である。</p>



<p class="has-watery-blue-background-color has-background"><strong>CutMix<br></strong>Cutoutの改良版で，画像を2枚用意し、一つの画像からもう一つの画像へコピーする手法である。</p>



<p class="has-watery-red-background-color has-background"><strong>ResNet</strong><br>shortcut connectionを利用したCNNモデルのことである。</p>



<p class="has-watery-blue-background-color has-background"><strong>隠れマルコフモデル<br></strong>音素ごとに学習する音声認識モデル、HMM。</p>



<p class="has-watery-red-background-color has-background"><strong>skip-gram</strong><br>word2vecの手法の一つで、ある単語を与えて周りの単語を予測する手法。</p>



<p class="has-watery-blue-background-color has-background"><strong>Vision Transformer<br></strong>自然言語処理の分野で発展したTransformerを画像処理に流用したものである。Vision Transformerは画像を単語のように分割することによりCNNを使用せず、Transformerに近いモデルを使用している。</p>



<p class="has-watery-red-background-color has-background"><strong>DQN<br></strong>行動によらず学習ができるように行動価値関数を状態と行動に分割する。</p>



<p class="has-watery-blue-background-color has-background"><strong>ダブルDQN<br></strong>深層強化学習を二重化することによって偶然行動価値が大きくなり、誤った学習をしてしまう現象を防ぐ。</p>



<p class="has-watery-red-background-color has-background"><strong>Dropout<br></strong>過学習を防ぐ手法である。</p>



<p class="has-watery-blue-background-color has-background"><strong>L2正則化<br></strong>過学習を防ぐ手法である。</p>



<p class="has-watery-red-background-color has-background"><strong>noisy network(ノイジーネットワーク)<br></strong>noisy networkはネットワークそのものに学習可能なパラメータと共に外乱を与え、それも含めて学習させていく手法、広範囲な探索を進める効果がある。</p>



<p class="has-watery-blue-background-color has-background"><strong>word2vec<br></strong>単語の埋め込みを生成するために使用される一連のモデル群である。これらのモデルは、単語の言語コンテキストを再構築するように訓練された浅い2層ニューラルネットワークであり、大きなコーパスを受け取って一つのベクトル空間を生成。</p>



<p class="has-watery-red-background-color has-background"><strong>ε-greedy法<br></strong>これは一定確率で価値によらずにランダムに行動を選択することで選ばれる行動の可能性を広げようとする手法である。</p>



<p class="has-watery-blue-background-color has-background"><strong>Monte Carlo Method(モンテカルロ法)<br></strong>Q値を更新するもの。Q学習　Q値を更新するもの、ある行動の良さを学習する強化学習の手法。</p>



<p class="has-watery-red-background-color has-background"><strong>Dueling Net<br></strong>2016年に発表されたDQNに関する手法の一つ。</p>



<p class="has-watery-blue-background-color has-background"><strong>マルチエージェント強化学習<br></strong>自身と相手を想定し、自身が報酬を得た際に他の相手にも報酬をあたえるというもの。</p>



<p class="has-watery-red-background-color has-background"><strong>セルフプレイ<br></strong>自分自身と競合させて強化学習を行う。</p>



<p class="has-watery-blue-background-color has-background"><strong>OpenAI Five<br></strong>非営利団体Open AIが作成。2019年にDota2というコンピュータゲームで2018年度の世界王者を破って勝利。</p>



<p class="has-watery-red-background-color has-background"><strong>アルファスター（αStrar）<br></strong>DeepMind社の作ったスタークラフト2というコンピュータゲーム用のAI。</p>



<p class="has-watery-blue-background-color has-background"><strong>状態表現学習<br></strong>深層強化学習において環境の状態をあらかじめ学習しておく手法である。</p>



<p class="has-watery-red-background-color has-background"><strong>SAC<br></strong>連続値制御の深層強化学習モデルである.方策関数(Actor)とsoftQ関数を、ニューラルネットワークで実装する、ロボットアームや自動運転のハンドル制御などに利用、ソフトベルマン方程式、目的関数にエントロピー最大項を加えることで探索を行う。</p>



<p class="has-watery-blue-background-color has-background"><strong>PBRS(Potential-based Reward Shaping)<br></strong>報酬成型の代表的な手法。</p>



<p class="has-watery-red-background-color has-background"><strong>報酬成型(Reward Shaping)<br></strong>通常の報酬値に、追加の値を加えることで学習速度を向上させる。</p>



<p class="has-watery-blue-background-color has-background"><strong>オフライン強化学習<br></strong>強化学習をオフラインで過去に蓄積されたデータのみで学習を行う手法である。医療・ロボティクスなどの実環境との相互作用へのリスクの大きい分野で期待されている。</p>



<p class="has-watery-red-background-color has-background"><strong>表現学習<br></strong>データから低次元の特徴を獲得する学習。</p>



<p class="has-watery-blue-background-color has-background"><strong>Sim2Real(Simulation-To-Real)<br></strong>シミュレーションを用いて方策を学習し、その学習した方策を現実に転移させる手法である。</p>



<p class="has-watery-red-background-color has-background"><strong>ドメインランダマイゼーション(Domain Randomization)<br></strong>ランダム化されたプロパティを使用して様々な学習用のシミュレーション環境を作成する手法である。これらすべての環境で機能するようにモデルを学習していく、実データをほとんど必要としない。教師なし学習。</p>



<p class="has-watery-blue-background-color has-background"><strong>ランダムサーチ<br></strong>ハイパーパラメータをランダムに探索する手法。</p>



<p class="has-watery-red-background-color has-background"><strong>Deep Residual Learning(ResNet)<br></strong>2015年のILSVRCで優勝したモデルであり、152層ものニューラルネットワークで構成されている。残差ブロックを導入することで勾配消失問題に対処し、飛躍的に層を増やすことに成功した。<br><strong>GoogleNet<br></strong>2014年のILSVRCで優勝。<br><strong>VGG-16<br></strong>13層の畳み込み層と3層の全結合層。</p>



<p class="has-watery-blue-background-color has-background"><strong>Googlenet GAP(Global Average Pooling)<br></strong>導入することで、パラメータ数を削減し、過学習を抑制している。</p>



<p class="has-watery-red-background-color has-background"><strong>蒸留<br></strong>学習済みモデルに与えた入力とそれに対する出力を学習データとして、新たなモデルを訓練すること。必要な計算リソースを削減することができる。</p>



<p class="has-watery-blue-background-color has-background"><strong>剪定<br></strong>決定木において過学習を防ぐために枝数を制限する手法である。</p>



<p class="has-watery-red-background-color has-background"><strong>ブートストラップサンプリング<br></strong>すべてのデータからランダムに一部のデータを取り出し、それぞれの決定木に与える手法。</p>



<p class="has-watery-blue-background-color has-background"><strong>量子化<br></strong>機械学習において演算に用いる数値の表現を浮動小数点数から整数に変換すること。<br><strong>正規化<br></strong>入力値の範囲を揃える処理のことである。<br><strong>正則化<br></strong>過学習を防ぐ手法の一つである。<br><strong>標準化<br></strong>入力データの分布について平均が0、分散が1になるように変換する処理。</p>



<p class="has-watery-red-background-color has-background"><strong>プルーニング<br></strong>ニューラルネットワークの重み(パラメータ)の一部を取り除く手法。</p>



<p class="has-watery-blue-background-color has-background"><strong>ドロップアウト<br></strong>ニューラルネットワークのユニットを一定の確率でランダムに無効にしながら学習を進める手法である。</p>



<p class="has-watery-red-background-color has-background"><strong>官民データ活用推進基本法（平成２８年法律第１０３号）<br></strong>オープンデータへの取り組みが義務付けられ、オープンデータへの取り組み組により、国民参加・官民協働の推進を通じた諸課題の解決、経済活性化、行政の高度化・効率化等が期待されている。</p>



<p class="has-watery-blue-background-color has-background"><strong>不競争防止法<br></strong>データ等の保護を図るには、営業秘密である必要がある。営業秘密不正取得行為等の「不正競争」を原則禁じている（不正競争防止法第２条第１項各号）。学習用等のデータ、プログラム、データベース、仕様書、ソースコード、及び、設計図などが対象。</p>



<p class="has-watery-red-background-color has-background"><strong>営業秘密<br></strong>不正競争防止法第２条第６項で定められている有用性、秘密管理性、及び、非公知性であり、この３つの要件を備えれば形式や書面であるか否かを問わない。<br><strong>発明<br></strong>「自然法則を利用した技術的思想の創作のうち高度のもの」である（特許法第２条第１項）。<br><strong>秘密意匠<br></strong>「意匠出願において秘密にすることを請求された意匠」である（意匠法第１４条）。<br><strong>個人情報<br></strong>「生存する個人に関する情報であって、氏名等」である（個人情報の保護に関する法律第２条）。<br><strong>著作物<br></strong>「思想又は感情を創作的に表現したものであつて、文芸、学術、美術又は音楽の範囲に属するもの」である（著作権法第２条第１項）。<br>データベースは著作権法では「論文、数値、図形その他の情報の集合物であつて、それらの情報を電子計算機を用いて検索することができるように体系的に構成したもの」である（著作権法第２条第１項１０の３号）。</p>



<p class="has-watery-blue-background-color has-background"><strong>匿名加工情報<br></strong>一定の条件下で本人同意なく事業者間でやりとりが可能となる（個人情報の保護に関する法律第２条）。匿名加工情報として扱うには「特定の個人を識別すること及びその作成に用いる個人情報を復元することができないようにするため」加工を行う義務がある（個人情報の保護に関する法律第３６条）。</p>



<p class="has-watery-red-background-color has-background"><strong>ボルツマンマシン<br></strong>無向グラフに対応、1985。</p>



<p class="has-watery-blue-background-color has-background"><strong>AdaGrad<br></strong>収束を早く促すための手法、振れ幅を抑制する、学習率をパラメータに適応させることで自動的に学習率を調整する、勾配を 2 乗した値を蓄積し、すでに大きく更新されたパラメータほど更新量（学習率）を小さくする。<br><strong>モメンタム法<br></strong>モーメントは運動量、収束を早く促すための手法、ボールの摩擦を少なくするようなイメージ、以前に適用した勾配の方向を現在のパラメータ更新にも影響させる。<br><strong>Adam法<br></strong>モメンタムとAdagradを融合させたような手法、勾配の平均と分散をオンラインで推定し利用、最適化を目指すもの。</p>



<p class="has-watery-red-background-color has-background"><strong>ノーフリーランチ<br></strong>すべてに対して常に優れているモデルは存在しない。パラーメータ最適化の前段階であるネットワーク構造の最適化を行う、ボトルネックは膨大な計算量、AutoMLを実現するための理論。</p>



<p class="has-watery-blue-background-color has-background"><strong>ベイズ最適化<br></strong>パラメータ最適化を行う<br><strong>遺伝アルゴリズム<br></strong>パラメータ最適化を行う</p>



<p class="has-watery-red-background-color has-background"><strong>NASNet<br></strong>CNNの畳み込みやプーリングをCNNセルと定義し、そのセルの最適化を行う、Google製、NormalCellとReductionCell。<br><strong>MnasNet<br></strong>Google製、AutoMLを参考にしたモバイル用のＣＮＮモデル設計、速度情報おw探索アルゴリズムの報酬に組み込むことで、速度の制約に対処した。</p>



<p class="has-watery-blue-background-color has-background"><strong>セグメンテーション<br></strong>物体検出の方法はセマンティックセグメンテーション、インスタンスセグメンテーションに大別できる。<br><strong>セマンティックセグメンテーション<br></strong>矩形を基本としたボックス単位で物体検出。膨大な計算を担う為にAtrousconvolution、Dilation convolutionが使用されている。<br><strong>インスタンスセグメンテーション<br></strong>不定の対象の境界を検出可能である。<br><strong>パノプセグメンテーション<br></strong>googleによって上記二つの手法を組み合わせる手法が提案された。</p>



<p class="has-watery-red-background-color has-background"><strong>Segnet<br></strong>セマンティックセグメンテーションように開発された深層学習モデルの一つである。エンコーダ部分はＣＮＮモデルであるＶＧＧ16の一部が採用、デコーダ部UP Sampling（アッサンプリング）</p>



<p class="has-watery-blue-background-color has-background"><strong>Faster R-CNN<br></strong>RCNNを高速にしたもの。</p>



<p class="has-watery-red-background-color has-background"><strong>OpenPose<br></strong>カーネギーメロン大学。入力画像から部位の位置の推定（S・confidense maps）、部位の連関を表す（L・Part Affinity Fields（PAFs））を行う。</p>



<p class="has-watery-blue-background-color has-background"><strong>Transformer（トランスフォーマー）<br></strong>機械翻訳のために提案され、計算速度向上のため、RNNを使わずに、Attentionメカニズムを使って並列計算を可能とするモデルである。Self-Attentionを導入することにより並列処理は可能になるが、単語の位置関係が把握できなくなる。これを解決するため位置エンコーディングと呼ばれる単語の出現位置情報を付加することにより、間接的に単語の位置情報や位置関係を考慮することができるようになった。</p>



<p class="has-watery-red-background-color has-background"><strong>Bidirectional<br></strong>RNN（双方向RNN・BRNN)とは、中間層の出力を未来への順伝播と過去への逆伝播の両方向に伝播するネットワークである。</p>



<p class="has-watery-blue-background-color has-background"><strong>BPTT</strong><br>elman networkの学習にも使用されている、ある種のRNNを学習するための勾配ベースの手法である。</p>



<p class="has-watery-red-background-color has-background"><strong>A/D変換<br></strong>自然界の現象からのアナログ信号をデジタル信号に変換すること。A/Dコンバータがある。標本化→量子化→符号化</p>



<p class="has-watery-blue-background-color has-background"><strong>SAR<br></strong>逐次比較レジスタ（Successive Approximation Register）、A-D変換方式の一つ。</p>



<p class="has-watery-red-background-color has-background"><strong>DAC<br></strong>DAコンバータとはＡＤコンバータの逆の操作をする回路であり、Digital to Analog Converterの略。</p>



<p class="has-watery-blue-background-color has-background"><strong>高速フーリエ変換（FFT/Fast Fourier Transformation）<br></strong>あらゆる周期の関数は正弦波の足しあわせで表現できるという特性を利用し、周波数成分に分解することが可能であるが、これをなるべく少ない計算量で行う。</p>



<p class="has-watery-red-background-color has-background"><strong>スペクトル包絡<br></strong>声道・鼻腔における共振・反共振特性に関連した各音韻ごとの違い</p>



<p class="has-watery-blue-background-color has-background"><strong>音声スペクトル<br></strong>生体の振動に対応した音声信号スペクトルと声道鼻孔における共振・反共振特性に関連した各音韻事の違いである音声信号スペクトルの二種類。音声認識には音声信号スペクトルのみの使用。</p>



<p class="has-watery-red-background-color has-background"><strong>ケプストラム法<br></strong>スペクトル包絡の代表的な抽出法</p>



<p class="has-watery-blue-background-color has-background"><strong>線形予測法<br></strong>スペクトル包絡の代表的な抽出法</p>



<p class="has-watery-red-background-color has-background"><strong>CEC<br></strong>勾配消失問題に対して誤差を保存するセル（Constant Error Carrousel：CEC）を使用する（記憶セルを用意）。</p>



<p class="has-watery-blue-background-color has-background"><strong>GRU<br></strong>記憶の忘却と更新という操作が、1つのゲートコントローラで行われている点、更新はゲートコントローラの値を1時刻前の状態ベクトルと乗算した後に加算することで実現されている点、過去の記憶は忘れるように連動させることで構造を簡略化。</p>



<p class="has-watery-red-background-color has-background"><strong>メル周波数ケプストラム係数（MFCC）<br></strong>音声認識や音楽ジャンル分類などで使われる特徴量であり、人間の聴覚特性を考慮した周波数スペクトルの概形を表す。（　＝メル尺度）</p>



<p class="has-watery-blue-background-color has-background"><strong>フォルマント<br></strong>言葉を発してできる複数の周波数のピーク。第1～3フォルマントがある。</p>



<p class="has-watery-red-background-color has-background"><strong>ケプストラム<br></strong>周波数スペクトルを信号とみなし、フーリエ変換して得られる信号。</p>



<p class="has-watery-blue-background-color has-background"><strong>音素<br></strong>意味の違いに関わる最小の音声的な単位、音声認識では音声データから特徴量を抽出するために、音素の抽出やノイズ除去のようなデジタル信号の波形に変換を行う。</p>



<p class="has-watery-red-background-color has-background"><strong>WaveNet<br></strong>音声認識や音声合成に利用できるモデルで、量子化された音声を1つずつ、1秒間に16000個の音声データを学習データとして学習するモデル。</p>



<p class="has-watery-blue-background-color has-background"><strong>Tacotron2<br></strong>テキストを人が話すような音声に変換するモデル。</p>



<p class="has-watery-red-background-color has-background"><strong>WaveGlow<br></strong>WaveNetを改良した軽量のモデル。</p>



<p class="has-watery-blue-background-color has-background"><strong>WaveRNN<br></strong>WaveNetを改良した1層RNN+全結合2層のニューラルネットのモデル。</p>



<p class="has-watery-red-background-color has-background"><strong>メル尺度<br></strong>心理学者のStanley Smith Stevensらによって提案された、人間が感じる音の高さに基づいた、音高の知覚尺度。</p>



<p class="has-watery-blue-background-color has-background"><strong>バーク尺度<br></strong>24に区分けられた音域を設定し、音の信号を対数変換した値がどの音域の範囲に値するかを測る尺度。</p>



<p class="has-watery-red-background-color has-background"><strong>メル周波数ケプストラム係数（Mel-Frequency Cepstrum Coefficients: MFCC）<br></strong>音声認識の特徴量を示す係数。</p>



<p class="has-watery-blue-background-color has-background"><strong>N-gram<br></strong>任意の文字列やテキストをいくつかの単語や文字のペアでn個ずつ分割し、ペア内の文脈を考慮してテキストを解析する手法である。1つの漢字を読み取るときに単語の前後関係から読みを解析するときなどに利用。</p>



<p class="has-watery-red-background-color has-background"><strong>形態素解析<br></strong>文章を文法や品詞から形態素に分割し、それぞれの形態素の品詞等を判別する手法。</p>



<p class="has-watery-blue-background-color has-background"><strong>コーパス<br></strong>単語検索対象となる文書全体のことである</p>



<p class="has-watery-red-background-color has-background"><strong>正規表現<br></strong>文字列内で文字の組み合わせを照合するときの表現方法である。</p>



<p class="has-watery-blue-background-color has-background"><strong>BoW(Bag-of-Words)<br></strong>任意の文字列やテキストに対して、記載内容の特徴を分析するため単語の出現回数を読み取る手法である。 記述内容が肯定的なのか否定的なのかの判定などに利用できる。自然言語処理の分野においては、文章に単語が含まれているかどうかを考えてテキストデータを数値化。文章をベクトルにする。</p>



<p class="has-watery-red-background-color has-background"><strong>MeCab<br></strong>京都大学情報学研究科-日本電信電話株式会社コミュニケーション科学基礎研究所 共同研究ユニットプロジェクトを通じて開発されたオープンソース形態素解析エンジン。</p>



<p class="has-watery-blue-background-color has-background"><strong>CaboCha<br></strong>日本語の係り受けを解析するツール。</p>



<p class="has-watery-red-background-color has-background"><strong>ラベルエンコーディング<br></strong>データにIDをつけて表現する手法。<br><strong>カウントエンコーディング<br></strong>データの出力回数などをラベルとして表現する手法である。<br><strong>ターゲットエンコーディング<br></strong>説明変数として、カテゴリ変数と目的変数を用いその特徴量で表現する手法である。</p>



<p class="has-watery-blue-background-color has-background"><strong>TF-IDF<br></strong>単語の出現頻度(TF)と単語が使われている文の割合の逆数(IDF)で単語の重要度を示す手法。ある単語が一般的によく使用されるのか、文章の中でよく使用されるのかを計算する方法。</p>



<p class="has-watery-red-background-color has-background"><strong>Okapi BM25<br></strong>単語の出現頻度や単語が使われている文の割合の逆数に加えて、文書に含まれる総単語数も含めて単語の重要度を算出する手法である。検索エンジンの順位付けなど。</p>



<p class="has-watery-blue-background-color has-background"><strong>CrRv<br></strong>専門用語の中でも一般人があまり用いないものに高い重要度を設け、特定の分野に対する専門性を算出する手法である。</p>



<p class="has-watery-red-background-color has-background"><strong>テキストマイニング<br></strong>自然言語処理における、テキストを分析するための概念である。文章からなるデータを単語や文節で区切り、それらの出現頻度や共出現の相関・出現傾向・時系列などを解析することで有用な情報を取り出す。</p>



<p class="has-watery-blue-background-color has-background"><strong>単語埋め込みモデル<br></strong>単語の意味をベクトルで表現するモデルである。複数の単語の関係性をベクトルの演算によって導き出すことに使われている(例 「王様」-「男性」+「女性」=「女王」)。<br><strong>ベクトル空間モデル<br></strong>ベクトル間の距離や内積などから文章の意味を表現するモデル。<br><strong>マルチタスク言語モデル<br></strong>構文解析や、前文予測などに使われる文章表現のベクトルモデル。<br><strong>普遍埋め込みモデル<br></strong>複数課題間に共通する、文章埋め込み表現を学習させたモデル。</p>



<p class="has-watery-red-background-color has-background"><strong>シニフィエ<br></strong>対象の概念や内容。<br><strong>記号表現（シニフィアン）<br></strong>対象そのものを文字などに表現したもの。</p>



<p class="has-watery-blue-background-color has-background"><strong>局在表現<br></strong>ある単語とベクトルの関係を1対1で表現する考え方である。他の概念とは完全に独立しているため、単語間の関係性をとらえることができない問題。<br><strong>分散表現<br></strong>文字や単語をベクトル空間に埋め込み、その空間上で点として扱う考え方である。他の概念と関連する場合は紐づけながらベクトル空間上に表現していく。</p>



<p class="has-watery-red-background-color has-background"><strong>スキップグラム<br></strong>ある単語を与えて周辺の単語を予測するモデルである。<br><strong>CBOW<br></strong>スキップグラムの逆で周辺の単語からある単語を予測するモデルである。</p>



<p class="has-watery-blue-background-color has-background"><strong>fastText<br></strong>個々の単語を高速でベクトルに変換しテキスト分類を行うモデルである。word2vecとの違いとして、単語の表現に文字の情報を含めて、存在しない単語を表現しやすくすることができる。</p>



<p class="has-watery-red-background-color has-background"><strong>ELMo<br></strong>文脈から意味を演算するモデルである。双方向のLSTMで学習することにより、同じ単語でも文脈によって異なる表現を獲得することができる手法である。</p>



<p class="has-watery-blue-background-color has-background"><strong>Source-Target Attention<br></strong>過去の内容からsource（入力）とtarget（出力）の内容が違うものの関連を求めるもの。</p>



<p class="has-watery-red-background-color has-background"><strong>GPT</strong><br>大規模なコーパスを用いて事前学習を行うモデルの一つにOpenAIが開発、1億前後のパラメーター。<br><strong>GPT-2<br></strong>2019年15億前後のパラメーター。<br><strong>GPT-3<br></strong>2020年1750億前後のパラメーター。</p>



<p class="has-watery-blue-background-color has-background"><strong>DeepLab</strong><br>Atrasnetを用いたもの。</p>



<p class="has-watery-red-background-color has-background"><strong>RMSprop</strong><br>Adagradにおける一度更新量が飽和した重みはもう更新されないという欠点を、指数移動平均を蓄積することにより解決。</p>



<p class="has-watery-blue-background-color has-background"><strong>ステップ関数<br></strong>単純パーセプトロンの出力層。<br><strong>シグモイド関数</strong><br>正規化の関数。値の範囲は 0～1 。微分の最大値は 0.25 。層が深くなる（つまり「0.25×0.25×・・・」と積算を繰り返していく）と値がどんどんと小さくなるため、勾配を表す値も小さくなり消失してしまうという課題がある。<br><strong>tanh関数</strong><br>値の範囲は -1～1 。（シグモイド関数よりも広い）勾配消失を起こしにくい。<br><strong>Relu関数</strong><br>現在、最もよく使われている。<a rel="noopener" target="_blank" href="http://d.hatena.ne.jp/keyword/%A5%CB%A5%E5%A1%BC%A5%E9%A5%EB%A5%CD%A5%C3%A5%C8%A5%EF%A1%BC%A5%AF">ニューラルネットワーク</a>における活性化関数の<a rel="noopener" target="_blank" href="http://d.hatena.ne.jp/keyword/%A5%C7%A5%D5%A5%A1%A5%AF%A5%C8%A5%B9%A5%BF%A5%F3%A5%C0%A1%BC%A5%C9">デファクトスタンダード</a>。x値が1より大きい場合、<a rel="noopener" target="_blank" href="http://d.hatena.ne.jp/keyword/%C8%F9%CA%AC">微分</a>値が1になるため、<strong>勾配消失しにくい</strong>。x値が0以下の場合、<a rel="noopener" target="_blank" href="http://d.hatena.ne.jp/keyword/%C8%F9%CA%AC">微分</a>値が0になるため、学習がうまくいかない場合もある。</p>



<p class="has-watery-red-background-color has-background"><strong>畳み込みニューラルネット（CNN）</strong><br>畳み込み層のパラメータ数は全結合層と比べて極めて少ない、データに潜む空間的構造をモデル化。</p>



<p class="has-watery-blue-background-color has-background"><strong>エキスパートシステム</strong><br>1980年代、特定領域に限り実用的成果を上げた</p>



<p class="has-watery-red-background-color has-background"><strong>ヤン・ルカン</strong><br>NY大学の教授、Facebookに招いた</p>



<p class="has-watery-blue-background-color has-background"><strong>人工知能研究の変遷</strong><br>パターン処理 -&gt; 記号処理 -&gt; 知識の蓄積</p>



<p class="has-watery-red-background-color has-background"><strong>google社、Facebook</strong><br>言語データによる RNN や映像データからの概念・知識理解を目指す<br><strong>UC Berkeley</strong><br>実世界を対象に研究を進め、知識理解を目指す<br><strong>DeepMind 社</strong><br>オンライン空間上でできることをターゲットにするして、知識理解を目指す</p>



<p class="has-watery-blue-background-color has-background"><strong>ヨシュア・ベンジオ</strong><br>時間的空間的一貫性、スパース性、複数の説明変数の存在</p>



<p class="has-watery-red-background-color has-background"><strong>ディープラーニングのアプローチ</strong><br>説明要因の階層的構造、タスク間の共通要因、要因の依存の単純性</p>



<p class="has-watery-blue-background-color has-background"><strong>画像キャプション</strong><br>CNN→LSTMの順でニューラルネットを使用すること。</p>



<p class="has-watery-red-background-color has-background"><strong>DCGAN</strong><br>画像生成期と画像識別機で構成されている。</p>



<p class="has-watery-blue-background-color has-background"><strong>End to End Learning</strong><br>DNNで処理を複数回に分けて行う必要がなくなったこのような、ディープラーニングにおいて重要な方法論。</p>



<p class="has-watery-red-background-color has-background"><strong>ニューラルネットワークの記述<br>設定ファイル</strong><br>Caffe、CNTK。モデルの定義がテキストで設定可能。ループ構造をもつようなRNNなど、複雑なモデルを扱う際には、モデルの定義を記述することは難しくなる。<br><strong>プログラム</strong><br>TensorFlow、Chainerなど。</p>



<p class="has-watery-blue-background-color has-background"><strong>偏回帰係数</strong><br>重回帰分析での独立変数の係数。</p>



<p class="has-watery-red-background-color has-background"><strong>残差の定義</strong><br>(残差) = (観測した値) &#8211; (予測した値)<br><strong>誤差の定義</strong><br>(誤差) = (観測した値) &#8211; (真の値)</p>



<p class="has-watery-blue-background-color has-background"><strong>最小二乗法</strong><br>モデルの予測値と実データの差が最小になるような係数パラメータを求める方法、符号を考えなくてよくなり計算がしやすくなる、異常値に注意。</p>



<p class="has-watery-red-background-color has-background"><strong>マージン最大化</strong><br>SVM（サポートベクタマシン）で使用。各クラスの最も近いデータの距離を最大化することで係数パラメータを得る方法。</p>



<p class="has-watery-blue-background-color has-background"><strong>最尤推定法</strong><br>ある係数パラメータが与えられたときに、モデルが実データを予測する確率（尤度）を最大化するような係数パラメータを求める方法。</p>



<p class="has-watery-red-background-color has-background"><strong>勾配降下法</strong><br>モデルの予測値と実データの差から損失関数を算出して、それを減少させるようにパラメータを更新させる方法。</p>



<p class="has-watery-blue-background-color has-background"><strong>HE.Xavier</strong><br>ネットワークのエッジにおける重みの初期値を決定する手法。</p>



<p class="has-watery-red-background-color has-background"><strong>waymo社</strong><br>Google傘下、自動運転3から取り組んでいる。</p>



<p class="has-watery-blue-background-color has-background"><strong>AI人材不足</strong><br>4.8万人程度。</p>



<p class="has-watery-red-background-color has-background"><strong>米国ネバダ州</strong><br>自動運転の走行や運転免許が許可制にて認められた。</p>



<p class="has-watery-blue-background-color has-background"><strong>インターネットプラスAI3年行動実施法案</strong><br>中国で施行。<br><strong>新産業構造ビジョン</strong><br>日本で施行。<br><strong>デジタル戦略2025</strong><br>ドイツで施行。<br><strong>RAS 2020 戦略</strong><br>英国で施行。</p>



<p class="has-watery-red-background-color has-background"><strong>リストワイズ法</strong><br>欠損があるサンプルを削除。</p>



<p class="has-watery-blue-background-color has-background"><strong>回帰補完</strong><br>特徴量と相関が強い他の特徴量が存在する場合の手法。</p>



<p class="has-watery-red-background-color has-background"><strong>Lenet</strong><br>1989年にヤン・ルクンらによって提案。畳み込みニューラルネットワーク構造。</p>



<p class="has-watery-blue-background-color has-background"><strong>恒等関数</strong><br>回帰問題に対しての出力層。</p>



<p class="has-watery-red-background-color has-background"><strong>白色化</strong><br>各特徴量を無相関化したうえで標準する手法。</p>



<p class="has-watery-blue-background-color has-background"><strong>Rainbow</strong><br>DQN以降に登場したいろいろな改良を全部乗せたアルゴリズム。DoubleDQN、Dueling Networkなど。</p>



<p class="has-watery-red-background-color has-background"><strong>大域的最適解</strong><br>広いところでの最適解。<br><strong>局在的最適解</strong><br>局在的な最適解。</p>



<p class="has-watery-blue-background-color has-background"><strong>プライバシー・バイ・デザイン（PbD:Privacy by Design）</strong><br>1990年代にカナダのオンタリオ州。アン・カブキアン博士が提唱。「技術」、「ビジネス・プラクティス」、「物理設計」のデザイン（設計）仕様段階からあらかじめプライバシー保護の取り組みを検討し、実践すること。PbDの基本原則は以下7つから成る。<br>1.事後的ではなく、事前的；救済的でなく予防的<br>2.初期設定としてのプライバシー<br>3.デザインに組み込まれるプライバシー<br>4.全機能的—ゼロサムではなく、ポジティブサム<br>5.最初から最後までのセキュリティ—すべてのライフサイクルを保護<br>6.可視性と透明性—公開の維持<br>7.利用者のプライバシーの尊重—利用者中心主義を維持する</p>



<p class="has-watery-red-background-color has-background"><strong>リーケージ</strong><br>データ内に入ってはいけないデータが混入すること。モデルの精度が高すぎる場合は、「予測には使えないデータを使っていないか」「バリデーションが正しくできているか」を疑ってみる。</p>



<p class="has-watery-blue-background-color has-background"><strong>LSTNet</strong><br>多変量時系列予測アルゴリズムで、Convolution component（多次元入力間の局所的な依存パターンの学習に寄与）、Recurrent component（多次元入力間の長期的な依存パターンの学習に寄与）、Autoregressive linear component（時系列データに対しても頑健な予測）の3つのコンポーネントをもつ。</p>



<p class="has-watery-red-background-color has-background"><strong>FCN（Fully Convolutional Network）</strong><br>セマンティックセグメンテーションに使われるネットワーク。</p>



<p class="has-watery-blue-background-color has-background"><strong>XAI</strong><br>説明可能なAI。</p>



<p class="has-watery-red-background-color has-background"><strong>ポアソン回帰</strong><br>確率的なもので統計をとる</p>



<p class="has-watery-blue-background-color has-background"><strong>カメラ画像利用ガイドブック</strong><br>経済産業省、総務省、IOT推進コンソーシアムによる。企業が守るべき基準。</p>



<p class="has-watery-red-background-color has-background"><strong>プルーニング</strong><br>冗長な処理の削除を行う手法。</p>



<p class="has-watery-blue-background-color has-background"><strong>ホールドアウト法</strong><br>データ全体を学習用とテスト用に分けてモデルの精度を確認する手法。</p>



<p class="has-watery-red-background-color has-background"><strong>CycleGAN</strong><br>ドメイン関係を楽手下画像変換。画像の色を変えるのが得意。</p>



<p class="has-watery-blue-background-color has-background"><strong>CRISP-DM</strong><br>データ分析のガイドライン。</p>



<p class="has-watery-red-background-color has-background"><strong>偏相関<br></strong>2つの変数の間の相関を表す概念。相関係数との違いは他の交絡因子による影響を無視する点。<br><strong>相関（相関係数）<br></strong>2 種類のデータの関係を示す指標です。 相関係数は無単位なので、単位の影響を受けずにデータの関連性を示します。<br><strong>分散<br></strong>偏差の2乗の平均値。<br><strong>期待値</strong><br>各事象の値×確率を全施行で割る</p>



<p class="has-watery-blue-background-color has-background"><strong>Adversarial Examples</strong><br>敵対的事例。AIをだますための微小な加工を行った画像。<br><strong>Adversarial Attack</strong><br>微小な加工を施してAIをだます攻撃。パンダをテナガザルに見せる例が有名。</p>



<p class="has-watery-red-background-color has-background"><strong>スパース</strong><br>疎なデータのこと。</p>



<p class="has-watery-blue-background-color has-background"><strong>バッチ正則化<br></strong>ニューラルネットワークの層ごとに正則化を行う手法。過学習の対策として良い。学習が進むにつれて入力が変化する内部共変量シフトに対応できる。</p>



<p class="has-watery-red-background-color has-background"><strong>内部共変量シフト</strong><br>入力の分布や値などが学習の途中で大きく変わってしまう問題のこと。</p>



<p class="has-watery-blue-background-color has-background"><strong>プーリング層</strong><br>決められた演算を行うだけの層。（ダウンサンプリング、サブサンプリング）プーリングの手法は下記。<br>最大値プーリング（２×２ごとに画像（特徴マップ）の最大値を抽出していく。）<br>平均プーリング（平均値をとる。平均プーリング。）<br>Lpプーリング（周りの値をp乗してその標準偏差をとる。）</p>



<p class="has-watery-red-background-color has-background"><strong>RNN（リカレントニューラルネット）</strong><br>時間情報を反映できるモデル。隠れ層に時間情報（過去の情報）を持たせることができる。特徴は前回の中間層の状態を隠れ層に入力する再帰構造を取り入れたこと。課題として深いネットワークのため勾配消失が起きやすい。そのため解決策として、LSTMがある。</p>



<p class="has-watery-blue-background-color has-background"><strong>LSTM</strong><br>時系列データにおいてはデファクトスタンダード。Google翻訳でも利用されている。ユルゲン・シュミットフーバーと、ケプラー大学のゼップ・ホフレイターによる提案。遠い過去の情報でも出力に反映。CEC（Constant Error Carousel）という誤差を内部にとどまらせ勾配消失を防ぐセル。ゲートは入力、出力、忘却の３つ。</p>



<p><strong>自動運転</strong></p>



<figure class="wp-block-table"><table><thead><tr><th>レベル</th><th>概要</th></tr></thead><tbody><tr><td>レベル０</td><td>自動運転化なし</td></tr><tr><td>レベル１</td><td>運転支援</td></tr><tr><td>レベル２</td><td>部分運転自動化</td></tr><tr><td>レベル３</td><td>条件付運転自動化</td></tr><tr><td>レベル４</td><td>高度運転自動化</td></tr><tr><td>レベル５</td><td>完全自動運転</td></tr></tbody></table></figure>



<p class="has-watery-red-background-color has-background"><strong>データ収集の法律</strong><br>以下を考慮する必要がある。<br>1.著作権法<br>2.不正防止競争防止法<br>3.個人情報保護法<br>4.個別の契約<br>5.その他の理由<br>成果（データ）をラボの外に出さなくても問題になるケースがある。（取得自体が問題になるケースも）</p>



<p class="has-watery-blue-background-color has-background"><strong>著作権</strong><br>日本では「情報解析を行うために著作物を複製してもよい」とされており、世界的に見ても先進的である。</p>



<p class="has-watery-red-background-color has-background"><strong>AI・データの利用に関するガイドライン<br></strong>2018年、経済産業省が策定。開発プロセスは ①アセスメント、②PoC、③開発、④追加学習 の４段階。契約類型は３つ、データ提供型、データ創出型、データ共用型。</p>



<p class="has-watery-blue-background-color has-background" id="-許可が必要になる飛行場所"><strong>ドローン法律</strong><br><strong>許可が必要になる飛行場所<br></strong>空港周辺、150m以上の上空、人家の密集地域（人口集中地区、DID地区）。<br><strong>承認が必要になる飛行方法<br></strong>夜間飛行、目視外飛行、第三者やその所有物（家や車）の30m未満の距離での飛行、催し場所での飛行、危険物の輸送、物件投下。</p>



<p class="has-watery-red-background-color has-background" id="-IEEE-P7000シリーズ"><strong>IEEE&nbsp;P7000シリーズ</strong><br>「倫理的に調和された設計」レポート。倫理的な設計を技術段階、開発段階に取り込む試み。</p>



<p class="has-watery-blue-background-color has-background" id="-IEEE-P7000シリーズ"><strong>データセットの偏り</strong><br>データセットによっては偏り・過少代表・過大代表などが生じる。データベースに登録されていないことによる偏りも生じる可能性がある。現実世界の偏りが増幅されることで、問題が生じる場合がある。</p>



<p class="has-watery-red-background-color has-background">人工知能学会 9つの指針<br>1.人類への貢献<br>2.法規制の遵守<br>3.他者のプライバシーの尊重<br>4.公正性<br>5.安全性<br>6.誠実な振る舞い<br>7.社会に対する責任<br>8.社会との対話と自己研鑽<br>9.人工知能への倫理遵守の要請</p>



<p class="has-watery-blue-background-color has-background"><strong>クライシス・マネジメント（危機管理）</strong><br>火消し（危機を最小限に抑える）、復旧（再発防止）が主眼。エスカレーションの仕組みづくりが重要。防災訓練を行うこと。危機管理マニュアルの有効性を検証する。</p>



<p class="has-watery-red-background-color has-background"><strong>Partnership on AI（PAI）</strong><br>Amazon、Google、Facebook、IBM、Microsoftなどで組織。AIにおける公平性・透明性・責任などへの取り組み。</p>



<p></p>



<p></p>



<p>今回の記事は以上です。他にも多数の機械学習関連の記事を記載しているので是非参考にしてみて下さい。</p>The post <a href="https://tomoblog.net/programing/machinelearning/gkente/">【G検定】用語一覧カンペシート。〜 300語以上網羅 〜</a> first appeared on <a href="https://tomoblog.net">ともぶろぐ</a>.]]></content:encoded>
					
					<wfw:commentRss>https://tomoblog.net/programing/machinelearning/gkente/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>【機械学習】アルファベータ(α-β)法とは？ 〜 最も簡単に解説 〜</title>
		<link>https://tomoblog.net/programing/machinelearning/a-b-cut/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=a-b-cut</link>
					<comments>https://tomoblog.net/programing/machinelearning/a-b-cut/#respond</comments>
		
		<dc:creator><![CDATA[tomo]]></dc:creator>
		<pubDate>Thu, 15 Jul 2021 14:20:13 +0000</pubDate>
				<category><![CDATA[機械学習]]></category>
		<guid isPermaLink="false">https://sunnyday-travel-aso-6487.ssl-lolipop.jp/?p=4486</guid>

					<description><![CDATA[<p>今回の記事は「アルファベータ(α-β)法」とは何かに関して、最も簡単に解説を行っていく記事になります。初心者にも分かりやすいようにできるだけ簡単に記事を記載していくので是非参考にしてみてください。 機械学習における「アル [&#8230;]</p>
The post <a href="https://tomoblog.net/programing/machinelearning/a-b-cut/">【機械学習】アルファベータ(α-β)法とは？ 〜 最も簡単に解説 〜</a> first appeared on <a href="https://tomoblog.net">ともぶろぐ</a>.]]></description>
										<content:encoded><![CDATA[<p>今回の記事は「アルファベータ(α-β)法」とは何かに関して、最も簡単に解説を行っていく記事になります。初心者にも分かりやすいようにできるだけ簡単に記事を記載していくので是非参考にしてみてください。</p>



<p></p>



<p></p>



<h2 class="wp-block-heading">機械学習における「アルファベータ(α-β)法」とは？</h2>



<p>アルファベータ法は「完全情報零和ゲーム」向きの探索手法の「ミニマックス法」を効率的に行うための手法のことを指します。</p>



<p>「完全情報零和ゲーム」は自身が知らない情報が存在しないゲームのことです。例えばオセロ、将棋などです。運の要素のある、「ババ抜き」「ビンゴ」などはこのゲームから外れます。</p>



<p>では実際にこのアルファベータ法はミニマックス法を効率的に行うための手法ですのでミニマックス法の理解ができていない方はまずは下記の記事からミニマックス法に関して知っておきましょう。</p>



<p>「<a target="_blank" href="https://tomoblog.net/programing/machinelearning/mini-max/">ミニマックス法とは？</a>」</p>



<p>簡単に説明すると下記のようなゲーム木（ゲームの始まりの盤面から終わりまでを図にした）下記のような図でよりよい選択をするアルゴリズムをミニマックス法と言います。</p>



<figure class="wp-block-image size-large"><img fetchpriority="high" decoding="async" width="527" height="307" src="https://tomoblog.net/wp-content/uploads/2021/07/スクリーンショット-2021-07-15-22.19.34.png" alt="" class="wp-image-4484" srcset="https://tomoblog.net/wp-content/uploads/2021/07/スクリーンショット-2021-07-15-22.19.34.png 527w, https://tomoblog.net/wp-content/uploads/2021/07/スクリーンショット-2021-07-15-22.19.34-300x175.png 300w" sizes="(max-width: 527px) 100vw, 527px" /></figure>



<p>この木の分岐点を接点、またはノードといいます。子ノードがないノードは葉、ノード以下の分岐を枝といいます。</p>



<p>この木の探索を全て行っているとかなり時間を要することが想像できますが、アルファベータ法で枝をカットする手法があり、これで探索にかかる時間を削減できます。</p>



<p>ではそのアルファベータ法に関して詳しく解説していきます。</p>



<figure class="wp-block-image size-large"><img decoding="async" width="688" height="357" src="https://tomoblog.net/wp-content/uploads/2021/07/スクリーンショット-2021-07-15-23.09.27.png" alt="" class="wp-image-4488" srcset="https://tomoblog.net/wp-content/uploads/2021/07/スクリーンショット-2021-07-15-23.09.27.png 688w, https://tomoblog.net/wp-content/uploads/2021/07/スクリーンショット-2021-07-15-23.09.27-300x156.png 300w" sizes="(max-width: 688px) 100vw, 688px" /><figcaption>青が自分の番、赤が相手の番</figcaption></figure>



<p class="has-watery-blue-background-color has-background">ゲームが最高点を目指す場合<br>①SからA→Cの順番で相手が何を選ぶかを考える。<br>②左から順番に2,4,5となっているので最高手は「5」となります。<br>③つまりCを自身が選択した場合の手は「5」といえます。<br>④では次にDの手に進みます。<br>⑤最も左のものが運よく「7」のためこの手はCの手よりも良い手であるとわかる。<br>⑥この場合Dの続き3,5を探索する必要はなくなるのでこの枝をカットします。</p>



<p>このカットが「αカット」です。</p>



<p>逆に最低点を目指す場合は上記の流れの逆で探索で出てきた最小値以下の枝をカットする手法を「βカット」といいます。</p>



<p class="has-watery-red-background-color has-background">αがそれまでに発見した自身で最も大きな評価値<br>βがそれまでに発見した相手側で最も小さいもの</p>



<p></p>



<p>では今回の記事は以上です。他にも多数の機械学習関連の記事を記載しているので是非参考にして見て下さい。</p>The post <a href="https://tomoblog.net/programing/machinelearning/a-b-cut/">【機械学習】アルファベータ(α-β)法とは？ 〜 最も簡単に解説 〜</a> first appeared on <a href="https://tomoblog.net">ともぶろぐ</a>.]]></content:encoded>
					
					<wfw:commentRss>https://tomoblog.net/programing/machinelearning/a-b-cut/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>【機械学習】ミニマックス(mini-max)法とは？ 〜 最も簡単に解説 〜</title>
		<link>https://tomoblog.net/programing/machinelearning/mini-max/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=mini-max</link>
					<comments>https://tomoblog.net/programing/machinelearning/mini-max/#comments</comments>
		
		<dc:creator><![CDATA[tomo]]></dc:creator>
		<pubDate>Thu, 15 Jul 2021 13:32:32 +0000</pubDate>
				<category><![CDATA[機械学習]]></category>
		<guid isPermaLink="false">https://sunnyday-travel-aso-6487.ssl-lolipop.jp/?p=4483</guid>

					<description><![CDATA[<p>今回の記事は「ミニマックス(mini-max)法」とは何かに関して、最も簡単に解説を行っていく記事になります。初心者にも分かりやすいようにできるだけ簡単に記事を記載していくので是非参考にしてみてください。 機械学習におけ [&#8230;]</p>
The post <a href="https://tomoblog.net/programing/machinelearning/mini-max/">【機械学習】ミニマックス(mini-max)法とは？ 〜 最も簡単に解説 〜</a> first appeared on <a href="https://tomoblog.net">ともぶろぐ</a>.]]></description>
										<content:encoded><![CDATA[<p>今回の記事は「ミニマックス(mini-max)法」とは何かに関して、最も簡単に解説を行っていく記事になります。初心者にも分かりやすいようにできるだけ簡単に記事を記載していくので是非参考にしてみてください。</p>



<p></p>



<p></p>



<h2 class="wp-block-heading">機械学習における「ミニマックス(mini-max)法」とは？</h2>



<p>ミニマックス法は「完全情報零和ゲーム」向きの探索手法です。この「完全情報零和ゲーム」は自身が知らない情報が存在しないゲームのことです。例えばオセロ、将棋などです。</p>



<p>運の要素のある、「ババ抜き」「ビンゴ」などはこのゲームから外れます。</p>



<p>では実際にこのミニマックス法に関して詳細に説明する前に「ゲーム木」に関しても理解しておく必要があります。</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="527" height="307" src="https://tomoblog.net/wp-content/uploads/2021/07/スクリーンショット-2021-07-15-22.19.34.png" alt="" class="wp-image-4484" srcset="https://tomoblog.net/wp-content/uploads/2021/07/スクリーンショット-2021-07-15-22.19.34.png 527w, https://tomoblog.net/wp-content/uploads/2021/07/スクリーンショット-2021-07-15-22.19.34-300x175.png 300w" sizes="(max-width: 527px) 100vw, 527px" /></figure>



<p>ゲーム木とは上記のように書かれた木構造のことをゲーム木と言います。</p>



<p>この場合、青丸が最大になる選択は8を選ぶ選択ということです。</p>



<p>ゲームの始まるの状態から各局面を表現したものとなります。分岐点を接点、またはノードといいます。子ノードがないノードは葉、ノード以下の分岐を枝といいます。</p>



<p>ミニマックス法はこのゲーム木の中から最良の選択を探索するアルゴリズムです。「自分にとっての最善手は、相手にとっての最悪手」という考えに基づいた考えです。</p>



<p></p>



<p>このアルゴリズムと混同しやすい語句として「α-βカット」がありますが、こちらはミニマックス法の探索を効率化する手法のことです。</p>



<p></p>



<p>では今回の記事は以上です。他にも多数の記事を記載しているので是非参考にして下さい。</p>The post <a href="https://tomoblog.net/programing/machinelearning/mini-max/">【機械学習】ミニマックス(mini-max)法とは？ 〜 最も簡単に解説 〜</a> first appeared on <a href="https://tomoblog.net">ともぶろぐ</a>.]]></content:encoded>
					
					<wfw:commentRss>https://tomoblog.net/programing/machinelearning/mini-max/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
		<item>
		<title>【機械学習】オートエンコーダとは？ 〜 最も簡単に解説 〜</title>
		<link>https://tomoblog.net/programing/machinelearning/autoencode/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=autoencode</link>
					<comments>https://tomoblog.net/programing/machinelearning/autoencode/#comments</comments>
		
		<dc:creator><![CDATA[tomo]]></dc:creator>
		<pubDate>Thu, 01 Jul 2021 14:17:57 +0000</pubDate>
				<category><![CDATA[機械学習]]></category>
		<guid isPermaLink="false">https://sunnyday-travel-aso-6487.ssl-lolipop.jp/?p=4236</guid>

					<description><![CDATA[<p>今回の記事は機械学習で将来性の高いと考えられている「オートエンコーダ」についてご紹介する記事です。そもそも「オートエンコーダ」とは何かについて初心者にも分かりやすいようにご説明していきます。是非参考にして見て下さい。 目 [&#8230;]</p>
The post <a href="https://tomoblog.net/programing/machinelearning/autoencode/">【機械学習】オートエンコーダとは？ 〜 最も簡単に解説 〜</a> first appeared on <a href="https://tomoblog.net">ともぶろぐ</a>.]]></description>
										<content:encoded><![CDATA[<p>今回の記事は機械学習で将来性の高いと考えられている「オートエンコーダ」についてご紹介する記事です。そもそも「オートエンコーダ」とは何かについて初心者にも分かりやすいようにご説明していきます。是非参考にして見て下さい。</p>



<p></p>



<p></p>




  <div id="toc" class="toc tnt-number toc-center tnt-number border-element"><input type="checkbox" class="toc-checkbox" id="toc-checkbox-14" checked><label class="toc-title" for="toc-checkbox-14">目次</label>
    <div class="toc-content">
    <ol class="toc-list open"><li><a href="#toc1" tabindex="0">【機械学習】オートエンコーダとは？</a></li><li><a href="#toc2" tabindex="0">オートエンコーダの応用例</a><ol><li><a href="#toc3" tabindex="0">画像のノイズ除去</a></li><li><a href="#toc4" tabindex="0">異常検知</a></li><li><a href="#toc5" tabindex="0">クラスタリング</a></li><li><a href="#toc6" tabindex="0">AIの出力による表現</a></li></ol></li></ol>
    </div>
  </div>

<h2 class="wp-block-heading"><span id="toc1">【機械学習】オートエンコーダとは？</span></h2>



<p>オートエンコーダとはネットなどで検索すると、　オートエンコーダ（自己符号化器）と呼ばれる技術は、入力された記号をエンコード（符号化、圧縮）して別のものに変え、もとの形に戻して出力する手法です。この手法の独特な点は入力と出力が同じ、つまり「問題」と「答え」が同じ問題を学習させる点にあります。&nbsp;</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="414" height="271" src="https://tomoblog.net/wp-content/uploads/2021/07/スクリーンショット-2021-07-01-23.01.42.png" alt="" class="wp-image-4237" srcset="https://tomoblog.net/wp-content/uploads/2021/07/スクリーンショット-2021-07-01-23.01.42.png 414w, https://tomoblog.net/wp-content/uploads/2021/07/スクリーンショット-2021-07-01-23.01.42-300x196.png 300w" sizes="(max-width: 414px) 100vw, 414px" /></figure>



<p>これ意味あるのか？と言う疑問をもつ方が多いと思いますが、見た目上何をしているかは分かりずらいです。</p>



<p>一見すると意味がないように思われますが、上図に重要な要素が隠れています。それは入力層（左）と出力層（右）のニューロンに比べて中間層（中央）のニューロンが少ない点です。中央部分でネットワークが集中しているため、ネットワーク上で情報を処理する際には何らかの形で情報を減らさなければなりません。&nbsp;</p>



<p>　情報を減らしても同じ答えを出せるようになるためには情報を圧縮させなければなりません。そこで中央部分のネットワークは「どんな情報を落としても大丈夫か」「どんな情報が必要なのか」という「情報の特徴」を学ばなければならなくなります。&nbsp;</p>



<p>　これがオートエンコーダのキモです。多層ニューラルネットワークの各層それぞれにおいてオートエンコーダによる事前学習を行うことでバックプロパゲーションによる誤差が減り、多層ニューラルネットワークの学習効率が大幅に改善しました。</p>



<p></p>



<h2 class="wp-block-heading"><span id="toc2">オートエンコーダの応用例</span></h2>



<h3 class="wp-block-heading"><span id="toc3">画像のノイズ除去</span></h3>



<p>画像のノイズを除去するためには、ノイズをノイズだと認識できなければなりません。オートエンコーダにそれを学習させる方法が有効です。入力値としてノイズを混ぜた画像、正解として元の画像を与えて訓練することで、圧縮時にノイズを除去できるようになります。</p>



<p>こうして、オートエンコーダをデータクレンジングとして活用して得られたデータは、ほかの機械学習にも利用できます。特に分類器の作成において、ノイズのないデータは分類精度を高めるうえで欠かせない教材となります。</p>



<h3 class="wp-block-heading"><span id="toc4">異常検知</span></h3>



<p>ノイズ除去を学習したオートエンコーダは、異常（ノイズ）検知にも応用されます。正しく学習できていれば、何らかの異常を含むデータを処理した場合でも、オートエンコーダは異常のないデータを出力します。</p>



<p>つまり、入力値に異常がある場合、入力値と出力値の間に誤差が生じるということです。これを異常発生と定義し、オートエンコーダは異常検知システムとして機能します。具体的にどこに異常があるのか特定することも可能です。</p>



<h3 class="wp-block-heading"><span id="toc5">クラスタリング</span></h3>



<p>クラスタリングとは分類のことです。入力値がどのような特徴を持つグループに属するのかを見分けます。これにより、精度の高い異常検知が実現します。</p>



<p>クラスタリングに応用する際に活用するのは、教師なし学習です。正常品と異常品を、どれが正常なのかラベルを付けずに与えます。その結果、データを圧縮した潜在変数は正常品の特徴を備えたものと、異常品の特徴を備えたものにグループ分けされます。</p>



<p>このように確率分布的に潜在変数を取得する仕組みを、VAEと言います。この学習を経たオートエンコーダにデータを入力することで、入力値がどちらのグループに属するのか判別可能です。</p>



<p>一口に異常と言っても、複数のパターンがあれば、その数だけグループが作られます。つまり、対象のデータが異常品というだけでなく、どのような異常を持つかを判別できるということです。</p>



<h3 class="wp-block-heading"><span id="toc6">AIの出力による表現</span></h3>



<p>オートエンコーダの出力部のみを抽出し、実際には存在しない人の画像を作成したり、絵を書いたりする研究が行われています。まだまだ商用されているわけではありませんが、このような利用方法も存在します。</p>



<p></p>



<p>では今回の記事は以上です。他にも多数の機械学習関連の記事を記載しているので是非参考にして見て下さい。</p>The post <a href="https://tomoblog.net/programing/machinelearning/autoencode/">【機械学習】オートエンコーダとは？ 〜 最も簡単に解説 〜</a> first appeared on <a href="https://tomoblog.net">ともぶろぐ</a>.]]></content:encoded>
					
					<wfw:commentRss>https://tomoblog.net/programing/machinelearning/autoencode/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
		<item>
		<title>【機械学習】「Linear SVC」とは？ 〜 最も簡単に解説 〜</title>
		<link>https://tomoblog.net/programing/machinelearning/linear-svc/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=linear-svc</link>
					<comments>https://tomoblog.net/programing/machinelearning/linear-svc/#respond</comments>
		
		<dc:creator><![CDATA[tomo]]></dc:creator>
		<pubDate>Sat, 05 Jun 2021 02:53:43 +0000</pubDate>
				<category><![CDATA[機械学習]]></category>
		<guid isPermaLink="false">https://sunnyday-travel-aso-6487.ssl-lolipop.jp/?p=3982</guid>

					<description><![CDATA[<p>今回の記事は「Linear SVC」とは何かに関して、最も簡単に解説を行っていく記事になります。初心者にも分かりやすいようにできるだけ簡単に記事を記載していくので是非参考にしてみてください。 機械学習における「Linea [&#8230;]</p>
The post <a href="https://tomoblog.net/programing/machinelearning/linear-svc/">【機械学習】「Linear SVC」とは？ 〜 最も簡単に解説 〜</a> first appeared on <a href="https://tomoblog.net">ともぶろぐ</a>.]]></description>
										<content:encoded><![CDATA[<p>今回の記事は「Linear SVC」とは何かに関して、最も簡単に解説を行っていく記事になります。初心者にも分かりやすいようにできるだけ簡単に記事を記載していくので是非参考にしてみてください。</p>



<p></p>



<p></p>



<h2 class="wp-block-heading">機械学習における「Linear SVC」とは？</h2>



<p>機械学習における「Linear SVC」とは、scikit-learnのクラス分類用のメソッドで、データが50以上10万以下であり、カテゴリのラベルがある教師学習が可能である際に有用性があるクラス分類手法です。</p>



<p>「Linear SVC」はカーネルを使用しないもので分類としてはサポートベクトル・マシンです。</p>



<p></p>



<p>ワインの分類を行うサンプルなどが有名ではないでしょうか？</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="346" height="242" src="https://tomoblog.net/wp-content/uploads/2021/06/スクリーンショット-2021-06-05-11.24.00.png" alt="" class="wp-image-3985" srcset="https://tomoblog.net/wp-content/uploads/2021/06/スクリーンショット-2021-06-05-11.24.00.png 346w, https://tomoblog.net/wp-content/uploads/2021/06/スクリーンショット-2021-06-05-11.24.00-300x210.png 300w" sizes="(max-width: 346px) 100vw, 346px" /></figure>



<p>こういった線形な識別平面を作成するために用いられます。</p>



<p></p>



<p>SVCも似たようなものと思われるのですが、アルゴリズム自体に大きな差があります。要は計算の中身が違います。</p>



<p></p>



<p>非線形な識別平面が欲しい場合にはカーネル関数でデータから非線形成分を作成する必要があります。</p>



<p></p>



<p>Linear SVCはカーネル関数は使用せず、ただデータから線形な識別平面を作成します。</p>



<p></p>



<p>では今回の記事は以上です。他にも多数の機械学習関連の記事を記載しています。是非そちらもご参照ください。</p>The post <a href="https://tomoblog.net/programing/machinelearning/linear-svc/">【機械学習】「Linear SVC」とは？ 〜 最も簡単に解説 〜</a> first appeared on <a href="https://tomoblog.net">ともぶろぐ</a>.]]></content:encoded>
					
					<wfw:commentRss>https://tomoblog.net/programing/machinelearning/linear-svc/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>【機械学習用語】Dence層とは？</title>
		<link>https://tomoblog.net/programing/machinelearning/dence/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=dence</link>
					<comments>https://tomoblog.net/programing/machinelearning/dence/#respond</comments>
		
		<dc:creator><![CDATA[tomo]]></dc:creator>
		<pubDate>Sat, 12 Dec 2020 07:20:34 +0000</pubDate>
				<category><![CDATA[機械学習]]></category>
		<guid isPermaLink="false">https://sunnyday-travel-aso-6487.ssl-lolipop.jp/?p=2524</guid>

					<description><![CDATA[<p>今回の記事はKerasでニューラルネットを作成する際よく出てくるDence層についての解説です。 Dence層とは？ 簡単に説明するとニューラルネットで特徴量抽出部とその特徴量を正解と紐付ける全結合層の2種類があるのです [&#8230;]</p>
The post <a href="https://tomoblog.net/programing/machinelearning/dence/">【機械学習用語】Dence層とは？</a> first appeared on <a href="https://tomoblog.net">ともぶろぐ</a>.]]></description>
										<content:encoded><![CDATA[<p>今回の記事はKerasでニューラルネットを作成する際よく出てくるDence層についての解説です。</p>



<h2 class="wp-block-heading">Dence層とは？</h2>



<p>簡単に説明するとニューラルネットで特徴量抽出部とその特徴量を正解と紐付ける全結合層の2種類があるのですが、Dence層はその全結合層にあたる部分です。</p>



<p>例えば下記のようにニューラルネットによって特徴量を抽出できた際にDence層の挙動を画像にしてみました。</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="385" height="496" src="https://tomoblog.net/wp-content/uploads/2020/12/スクリーンショット-2020-12-12-16.00.03.png" alt="" class="wp-image-2712" srcset="https://tomoblog.net/wp-content/uploads/2020/12/スクリーンショット-2020-12-12-16.00.03.png 385w, https://tomoblog.net/wp-content/uploads/2020/12/スクリーンショット-2020-12-12-16.00.03-233x300.png 233w" sizes="(max-width: 385px) 100vw, 385px" /></figure>



<p>この赤丸の部分の全ての正解ラベルとの紐付けに使われる層のことがDence層です。</p>



<p>内部の関数などは特に知る必要がまだないと思われます。</p>



<p>以上で解説は終了です。他の語も気になればご参照ください。</p>The post <a href="https://tomoblog.net/programing/machinelearning/dence/">【機械学習用語】Dence層とは？</a> first appeared on <a href="https://tomoblog.net">ともぶろぐ</a>.]]></content:encoded>
					
					<wfw:commentRss>https://tomoblog.net/programing/machinelearning/dence/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>【機械学習用語】自己回帰モデルとは？</title>
		<link>https://tomoblog.net/programing/machinelearning/zikokaiki/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=zikokaiki</link>
					<comments>https://tomoblog.net/programing/machinelearning/zikokaiki/#respond</comments>
		
		<dc:creator><![CDATA[tomo]]></dc:creator>
		<pubDate>Wed, 09 Dec 2020 13:57:28 +0000</pubDate>
				<category><![CDATA[機械学習]]></category>
		<guid isPermaLink="false">https://sunnyday-travel-aso-6487.ssl-lolipop.jp/?p=2681</guid>

					<description><![CDATA[<p>【機械学習用語】自己回帰モデルとは？ 今回の記事は「自己回帰（AR）モデル」についての記事です。 「自己回帰（AR）モデル」を簡単に説明すると時系列データを分析する際の手法のテンプレというか考え方のようなものです。 公式 [&#8230;]</p>
The post <a href="https://tomoblog.net/programing/machinelearning/zikokaiki/">【機械学習用語】自己回帰モデルとは？</a> first appeared on <a href="https://tomoblog.net">ともぶろぐ</a>.]]></description>
										<content:encoded><![CDATA[<h2 class="wp-block-heading">【機械学習用語】自己回帰モデルとは？</h2>



<p>今回の記事は「自己回帰（AR）モデル」についての記事です。</p>



<p>「自己回帰（AR）モデル」を簡単に説明すると時系列データを分析する際の手法のテンプレというか考え方のようなものです。</p>



<p>公式な回答としては、『自己回帰モデル（AR モデル）は、ある時刻 t の値を、時刻 t よりも古いデータを使って回帰するモデルである。自己回帰モデルは、自己相関の高い時系列データのモデリングに有効である。回帰式は次のように表せる。φ<sub>i</sub> は自己回帰係数、p は次数である。また、ε<sub>t</sub> は誤差項であり、平均 0 かつ分散 σ<sup>2</sup> のホワイトノイズである。』</p>



<p>難しいですね毎度のことながら。。</p>



<p>簡単に噛み砕くと以前解説した、<a target="_blank" href="https://tomoblog.net/programing/machinelearning/kaiki/">回帰</a>の自己相関が強い場合に使用する分析手法です。<br>ここで出てきた自己相関に関しては自己相関リンクでもわかりやすく解説しておりますが、簡単にいうと「時間の経過とともにどれだけ元の状態と関係なくなっていくかの指標（関数）です。」つめりこの指標が弱いと自己相関が強いといえます。こう言った場合に使用する分析手法が自己回帰でその分析のテンプレが自己回帰（AR）モデルです。</p>The post <a href="https://tomoblog.net/programing/machinelearning/zikokaiki/">【機械学習用語】自己回帰モデルとは？</a> first appeared on <a href="https://tomoblog.net">ともぶろぐ</a>.]]></content:encoded>
					
					<wfw:commentRss>https://tomoblog.net/programing/machinelearning/zikokaiki/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
