Ubuntuでdo-release-upgradeをしたらvmware tool関連が動かなくなった時

慌てず騒がず、vmware-config-toolsを実行しましょう。

sudo vmware-config-tools.pl

ベイジアンネット情報源まとめ

今日調べた分。とっ散らかってるが備忘録として。


超初歩: ベイジアンネットワーク入門←オススメ
http://www.ne.jp/asahi/hiroki/suyari/BayesianNetworkIntro1.pdf
http://www.ne.jp/asahi/hiroki/suyari/BayesianNetworkIntro2.pdf

一杉さんのページ
https://staff.aist.go.jp/y-ichisugi/besom/brain-bayesnet-faq.html
入門的解説
https://staff.aist.go.jp/y-ichisugi/besom/20100226what-is-bp.pdf

ググって出てきたレビュー(読めてない)
A Review of Bayesian Networks and Structure Learning
http://www.mimuw.edu.pl/~noble/courses/BayesianNetworks/Bayesnetsreview.pdf
↑探すと出版版もある。

脳関連で短めで読めそうな(しかし重要な)論文(Rao 2005)
http://www.cs.washington.edu/homes/rao/nreport_bayes_atten05.pdf


疑問点

  • 概念はなんとなくわかってきたが、結局何が嬉しいのかよくわからない
    • 一旦ベイジアンネットを作っておけば、例えば事象の原因分析に役立つのはわかるが、それってあえてベイジアンネットという道具立てを必要とするんだろうか?
  • 最大エントロピー法と関連性はあるんだろうか? たぶん最尤推定のあたりが関連してる気がする。

橋元淳一郎が人工知能学会誌にショートショート載せてて草

銅谷先生の脳科学の論文読んだけど、metalearningの概念とか超面白い。
仮説の部分もあるんだろうけど、セロトニンとかの脳内物質の役割をここまで明確にしてるなんて。
クオリアとか抽象的な概念ばっか語らせて脳科学とかやってるつまらんテレビとは本当対極だなぁ。

その昔、物理は物理屋には難しすぎる(ニッコリ)と数学者が言ったらしいけど、
たぶん計算論的神経科学は生物学者には難しすぎると思う。煽りとかではなく。

Virtualbox + ubuntu server 14.04 LTS セットアップメモ

最新版に更新

sudo apt-get update
sudo apt-get dist-upgrade
sudo reboot

sshd入れる

sudo apt-get install openssh-server


virtualbox側の設定でネットワーク設定をブリッジ接続に。
再起動してifconfigでIPゲット
http://www.nekotricolor.com/blog/2013/03/15/904/


以下puttyから繋いで使う

ファイル共有

virtualbox提供のツールをゲストOSに入れる必要ある。
gccやmakeなど入れないといけない。
http://d.hatena.ne.jp/imasusen/20130829/1377723891

sudo apt-get install xserver-xorg xserver-xorg-core make gcc


(X関係はいらないかも)

Guest additionのイメージを挿入しマウント

sudo mount /dev/cdrom /mnt/cdrom
cd /mnt/cdrom
sudo ./VBoxLinuxAdditions.run

再起動したら、設定から共有フォルダを追加。

共有フォルダのマウント。
例:共有フォルダ名developを~/hostにマウントする。
https://help.ubuntu.com/community/VirtualBox/SharedFolders

sudo mount -t vboxsf develop ~/host

(このコマンド理解してないです。特にvboxsf)

クッソ見づらいvimの色変更

vi .vimrc
colorscheme ron

LAMP

sudo tasksel

LAMP選んでインストール(Lはもう入ってると思うんですがそれは・・)
apacheのデフォルトのルートディレクトリが/var/www/htmlに変更されてるので注意。

ツイッター貼り付けテスト

汎用人工知能という言葉に対する違和感

  • 例えば画像認識の場合、写ってるものの位置が真ん中からずれてたり、角度が違ったりすることがある。アホな判別器だと、真ん中に対象があって、ちゃんとこっちを見てないとそれと判断できないが、最近の精度の良い認識機を使えばちゃんと認識できる(顔認識とか)。この意味で、画像認識の分野では、認識機はより汎用になったと言える。
  • なんで画像認識機が汎用になったかといえば、それは対象をうまく抽象化≒表現抽出して、その組み合わせとしてものを認識できるようになったから、つまり、よい表現を得たことで、画像認識機は汎用性を獲得した、と言っていい。
  • Deep learning の文脈に照らし合わせると、オートエンコーダでスパースな表現を獲得したことで汎用になった、と言える。
  • もしかすると、画像認識に限らず、汎用性ってのは結局、どのくらいうまく処理対象を認識するか、言い換えれば表現を手に入れているか、ということと同義なんじゃないかな。
  • 話しかけられたら応答し、ボールが飛んできたらよけて、赤ちゃんがいたらやさしくだっこする。つまりシチュエーションを学んで適切な行動を取ること、それはシチュエーションの表現を(教師なし学習で)学習することで、その特徴表現から「何をすべきか」を(強化学習か教師あり学習で)学び、行動を選択出来てるということだと思う。
  • だから、表現を持ってて、それでもって入力を解釈している人工知能はすでにある程度汎用だと思うし、人間だって、手でも足でも体当たりでも駄目だったらそれ以上やりようないわけで、案外汎用性は高くない。
  • Iさんが、人間は「この世界」という非常に特殊な状況に特化している、とおっしゃっていたが、激しく同意。ついでに言えば、「人体」という極めて特殊な物体の制御に特化しているとも言える。
  • 想定外のシチュエーションで動けなくなってしまう人間も多い。
  • これからどんどん人工知能は汎用化していくだろうし、人間って案外特化型なんだな、と発見されていくのだろう
  • まとめると、「汎用人工知能」「専用人工知能」という分け方があまり好きではない。人工知能はすでにある程度汎用性を持っているし、ここまでが汎用人工知能、ここからが専用人工知能、という線引きはだんだんと意味を失っていくと思う。これが汎用人工知能と聞いた時の違和感の正体かな。
  • 人間レベルの汎用性、という線引き(または目標)も、あまり有効じゃない気がする。例えば、人間以上に画像を認識できる(=汎用性のある)けど、それ以外のことが出来ない人工知能ってわりと現実的だけど、それは人間以上なの?人間以下なの?