>>385 一応大まかなフローチャートは>>43>>171-172で説明したとおり。
提唱するghostにはなっている。全然出来ると思いますよ。ちなみに対するレス
>>174
>その段階なら、マイクロマウスの時代に実現されている
>>176
>そんな感じのだったら、rubyでちょっと書いてみたら?
>少し勉強すればグラフィックも何とかなると思うし。
>グラフィックが面倒だったらキャラクタ画面でも良いんだし

これは作れるでしょう。(僕は仕事をセミリタイヤしたらと言った)
カーナビAIなんかも面白いですけどね。ダッシュボードに"ヅラ"をつけて、ユーザ
ーが「撫でる(褒める)」と「叩く(叱る)」を教えれる。
カーナビは"命令どおりに動く"のではなく、"褒められるように"期待できる行動を
経験データから選択する、結果をまたフィードバックする。
音声認識とコラボさせて、ついには、「腹減ったー」と聞くと食べ物屋を近隣から
ピックアップする。叩いたり撫でたり学習させるうちに、ユーザーによりファミレス
を案内したりファーストフードを案内したり特長分けが出来る。
『バーコード親父のドMナビ、もっとぶって』の完成となる。
選択肢や状況判断が限定的(つまり認識を擬似的な処理)にすれば、全然可能でしょう?



ただし、認識と"行動選択肢の項目”の発生は設定した擬似によるものとして。