Machine Learning Casual Talks #2 参加メモ

B to Cサービスの現場から考える機械学習活用(グノシー 関さん)



それぞれが得意なこと

  • 機械が得意なこと
    • 大量のデータを処理すること
    • 24時間働き続けること
    • 数値データから素早く意思決定をすること
  • 人が得意なこと
    • 仮説を立てること
    • 人の気持ちを理解すること(対機械比)
    • ニュアンスを読み取ること

B to Cサービスでの課題

  • 学術研究では過去のデータをいかに再現できるかを見る
  • 機械学習が組み込まれる前と後でユーザの行動は変わる
  • 重要なのはユーザの満足度
  • ユーザ層が変わればモデルが変わる

タスクの進め方

  1. 目標設定
    • 改善目標となる数値を決める
    • タスクの優先順位をここから決める
  2. 仮説立案
    • 仮説なきモデル実装はやってはいけない
  3. 簡単な実験
    • ルールベース・人力などによって有効性を確認する
  4. モデル実装・自動化
    • ルールベース・人力で有効性が確認されたらモデル化・自動化を進める

学術知識の利活用

  • いま何ができるようになっているかを知る
  • どのような考え方が成功しているかを知る
  • 手法の精度や結果より、なぜその手法を用いることの優位性があるのかに注目する

機械学習 × KPI

  • アカデミック側の評価基準にとらわれないことが大事
続きを読む

第5回 全脳アーキテクチャ勉強会 参加メモ

Deep Learningベイジアンネットと強化学習を組み合わせた機構による、前頭前野周辺の計算論的モデルの構想」(産総研 一杉裕志氏)

前頭前野周辺に関する知見

前頭前野周辺のアーキテクチャを推定するためのヒント

  • 前頭前野周辺の4つの平行した大脳皮質 - 基底核ループは、階層型強化学習を行っているのではないか。
  • 思考は最適意思決定の近似計算ではないか?
  • 近似計算の方法そのものも経験から学習するのではないか?
続きを読む

パターン認識と機械学習入門 第17回 参加メモ

資料

マルコフ確率場 (Markov Random Field; MRF)

  • 無向グラフによるグラフィカルモデル
  • クリーク因子分解を行ったときに最大ファクターのサイズが最小となる

マルコフ確率場:画像処理への応用

  • あるピクセルの値は観測値及び隣接するピクセルと強い相関があると考えられる.これをグラフで表現しMRFと見なす

ファクターグラフ

  • ベイジアンネットワーク、マルコフ確率場を統一的に扱える
  • 二部グラフであって、一方のノード群は確率変数、他方のノード群はファクターからなる
  • Sum-Productアルゴリズム

歌舞伎座.tech#4「コンピュータ将棋プログラミング」 参加メモ

コンピュータ将棋の歴史と基本アルゴリズム (瀧澤 武信氏 (コンピュータ将棋協会会長))

コンピュータ将棋の基本技術

  • min-max原理
  • alpha-beta法
    • 木の並び方によって読むノードを減らせる

その他の技術

  • 反復深化
  • トランスポジションテーブル
  • Futility枝刈り、null-move枝刈り
  • singular拡張
  • 静止探索(捕獲探索)
  • 証明数探索(詰め将棋の研究で得られた)

他分野への応用が期待されるアルゴリズム

続きを読む

パターン認識と機械学習入門 第16回 参加メモ

資料

ジョインツリーアルゴリズム

MCS(maximum cardinality search)フィルイン

パターン認識と機械学習入門 第15回 参加メモ

資料

ベイジアンネットワーク上での推論

変数消去法は効率が悪い

  • 計算量は O(N^2 exp(w))
    • N: 変数の数、w: 変数消去の途中に出現する因子の変数の数の最大値

枝刈り
クエリ集合 Q とエビデンス集合 E が与えられたとき、

  1. Q に含まれない葉ノード(子を持たないノード)へ向かうエッジ
  2. E に含まれるノードから張られたエッジ

を除去する事が出来る.
また、枝刈りの結果孤立した Q, E に含まれないノードも除去する事が出来る.

最小次数法

  • 常にインタラクショングラフ上で次数が最小の変数を消去する

=> 枝刈りと最小次数法でアルゴリズムの定数倍の部分はかなり小さくなる.ただしオーダーは大きく変わらない


ジョインツリーアルゴリズム

  • O(N exp(w)) の計算量で厳密な推論を行うことができる
  • ファクター消去法の特別な場合

メッセージパッシング
一回ルートまでメッセージを流して、その後ルートから逆にメッセージを再分配することで一辺に全てのクラスターに関する同時確率を計算できる.これによって計算量を削減.