強化学習
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@お腹いっぱい。
2006/08/24(木) 18:55:33ID:D7h3TICi0入門書:
Reinforcement Learning: An Introduction
Richard S. Sutton and Andrew G. Barto
A Bradford Book
The MIT Press
Cambridge, Massachusetts
London, England
ttp://www.cs.ualberta.ca/%7Esutton/book/ebook/the-book.html
0110名無しさん@お腹いっぱい。
2010/07/13(火) 02:18:56ID:Auytcz1r00111110
2010/07/14(水) 15:18:38ID:2lkun6AN0しかし、ランダムに探索を行ってもゴールまでたどり着かないので強化学習ができません
よい方法はありますか?
0112名無しさん@お腹いっぱい。
2010/07/14(水) 19:07:35ID:pE25yMTs0強化学習は、エージェントが環境に対してアクション起こしてそれに対する報酬を受けることで学習していくものなんだ
最初のうちはどのような行動で高い報酬が得られるか分からないからランダムでもいいけど、次第に学習していくんだからランダムな行動選択にならないようにすべき
その点は、Q学習でもSARSA学習でも適格度トレースでもいいけどボルツマン分布に基づくような方策にすればよい
迷路問題の詳しい設定は考慮しないが、ゴールに辿り着いたときに報酬を与えて、壁にあたると報酬を負にしたり(罰を与える)、通路を通るごとに罰を与えるようにすれば、一般的に最小ステップでゴールに到達するようになる
そもそもゴール辿り着けないのは、問題の設定がおかしいか、乱数の精度が悪いか、なんだろう
0113名無しさん@お腹いっぱい。
2010/07/16(金) 22:54:30ID:RclIpxe90何回も15パズルをシミュレーションして、最適解(それに近い解)を強化学習で探したいのですが
シミュレーションをしても解にたどり着かず、報酬を得ることができないので、学習を進めることができません
どのようにしたら学習ができるような環境を作ることができるかどなたか分かる人教えてください
お願いします。
0114名無しさん@お腹いっぱい。
2010/07/20(火) 11:52:32ID:jobWg5UL00115名無しさん@お腹いっぱい。
2010/07/20(火) 12:01:54ID:e2uKDuJe0反復深化や、全探索など探索処理を行えば完成状態に行き着くと思いますが
今回は、強化学習という形で、パズルの完成に行き着けるかを考えています
0116名無しさん@お腹いっぱい。
2010/07/20(火) 16:35:54ID:jobWg5UL0乱数だと、全解を探索するのにかかる時間が(同じ探索を枝切りしないと)えらくかかるよ。
0117名無しさん@お腹いっぱい。
2010/07/20(火) 20:44:12ID:e2uKDuJe0なるほど、初めは盲目的に全探索(それに近いこと)をして強化学習をするのですね
ありがとうございます、ちょっとやってみます
0118名無しさん@お腹いっぱい。
2010/07/21(水) 16:51:38ID:UuoiHKdh0系統的に全数を探索すれば、n個の選択肢はn回の探索で探索し終わるけど、
単純にランダムで探索してたら、n個の選択肢を全て探索するのにかなりの回数が
かかる、ということ。
0119名無しさん@お腹いっぱい。
2010/07/23(金) 11:24:40ID:nLjKlgfR00120名無しさん@お腹いっぱい。
2010/07/23(金) 11:26:39ID:nLjKlgfR00121名無しさん@お腹いっぱい。
2010/07/24(土) 02:35:11ID:69ixE9nr0まず確実にゆっくり解く関数を作る。
予め上限を決めておいて、それを超える数まで探索したら
その関数を呼んで総手数を評価値として戻す。
■ このスレッドは過去ログ倉庫に格納されています