論文 - 犬塚 信博

分割表示  172 件中 141 - 160 件目  /  全件表示 >>
  • 遺伝的プログラミング技法を用いた多出力二分決定グラフの進化-食物連鎖におけるマルチエージェントの進化シミュレーション 査読あり

    森脇康介 横井大祐 犬塚信博 伊藤英則

    人工知能学会誌 人工知能学会   14 ( 3 )   477 - 484   1999年04月

     詳細を見る

    記述言語:日本語   掲載種別:研究論文(学術雑誌)  

    二分決定グラフに遺伝的操作を与え、遺伝プログラミングの方法によって進化的に学習する研究をした。多出力二分決定グラフは、状況を表すビット列を入力として、有限集合から1つを出力する関数を表す。出力信号を行動に割り当てることで、エージェントの行動を表現することができる。多出力二分決定グラフのグラフ操作を遺伝操作として定義することで、進化学習手法(ある種の進化計算)を定義した。論文では、競合する2種類の進化を同時に行わせる共進化環境を作り、この環境で持続的に進化が起こることを確認した。

  • Solving selection problems using preference relation based on Bayesian learning 査読あり

    中野智文 犬塚信博

    Lecture Notes in Artificial Intelligence, Springer-Verlag (Proceedings of 10th International Conference of Inductive Logic Programming) Springer   1866   147 - 164   1999年04月

     詳細を見る

    記述言語:英語   掲載種別:研究論文(学術雑誌)  

    対象から1つを選択する問題を定義し、これを選好関係の学習とベイズ学習の手法を組合せて解決する手法を研究し、実験によって評価した。論理的な二者択一を得意とする学手法で、複数候補からの選択規則を学習することは直接的には出来ない。そこで、選択の解を2者択一の問題に還元し、また、これを統合する方法を与えた。2者択一の結果は学習誤差があるため、これを確率的に評価し、ベイズ理論によって先験的確率と統合する方法を与えた。

  • Parallel induction algorithms for large samples 査読あり

    松井藤五郎 犬塚信博 世木博久 伊藤英則

    Lecture Notes in Artificial Intelligence (Discovery Science - First International Conference, DS'98) Springer   1532   397 - 398   1998年04月

     詳細を見る

    記述言語:英語   掲載種別:研究論文(学術雑誌)  

    本論文では,帰納論理プログラミング (ILP) アルゴリズム FOIL を並列化する三つの手法を提案した。FOIL の探索空間・背景知識・事例集合をそれぞれ分割する方法について,実装を行い,実験および考察を行った。背景知識分割の結果が最も良かったが,考察の結果,ILP アルゴリズムの並列化には訓練集合を分割するのが望ましいとの結論を得た。実装には並列計算機上へのAP-3000を用いた。主記憶非共有型の並列計算機であるため、上記の通りデータの分割の必要があった。

  • Inducing Shogi Heuristics Using Inductive Logic Programming 査読あり

    中野智文 犬塚信博 世木博久 伊藤英則

    Lecture Notes in Artificial Intelligence (Inductive Logic Programming - 8th International Conference on Inductive Logic Programming) Springer   1446 ( 8 )   155 - 164   1998年04月

     詳細を見る

    記述言語:英語   掲載種別:研究論文(学術雑誌)  

    論理プログラムを帰納的に学習する方法を応用し、詰め将棋を例に、プランニング問題を解く方法を与え、実験で評価した。将棋はプランニングの問題として現実課題以上に困難な点を含む。詰め将棋の解から、解2つを比較する事例を生成し、比較関係を定義する論理プログラムを帰納することで、これを将来のプランニングの状況の比較に用いる方法を提案した。小規模の詰め将棋問題において、得られた評価関数によって解を得られることを実験によって確認した。

  • Evolutionary learning of cooperation among heterogeneous agents 査読あり

    藤永貴之 森脇康介 犬塚信博 伊藤英則

    Proceedings of the 2nd Asia-Pacific Confernce on Simulated Evolution and Learning (SEAL'98), Canberra SEAL98   12 - 1   1998年04月

     詳細を見る

    記述言語:英語   掲載種別:研究論文(国際会議プロシーディングス)  

    機能の異なる複数の自律エージェントが各固に相応しい働きを獲得するための進化的学習法を研究した。機能が異なるエージェントが混在する集団の場合、それらが最適な行動をするには非対称な働きをもつことが想像される。このことを実験によって確かめるため、シンプルな問題を用いてシミュレーションを行った。荷物を初期地点からゴールまで運搬する荷物運搬問題と呼ぶ標準問題を設定し、荷物の上げ下ろしについて機能の異なるエージェントをそこにおいて、戦略を進化的に学習させた。働きが分化する過程を確認した。

  • Comparison of three parallel implementations of an induction algorithm 査読あり

    松井藤五郎 犬塚信博 世木博久 伊藤英則

    Proceedings of the 8th International Parallel Computing Workshop PCW98   181 - 188   1998年04月

     詳細を見る

    記述言語:英語   掲載種別:研究論文(国際会議プロシーディングス)  

    論理プログラムの帰納アルゴリズムを並列化するための3つの手法(事例、背景知識、探索空間を各々分割し並列に処理する方法)を比較し検討した。最も典型的な帰納論理プログラミングアルゴリズムとしてFOILアルゴリズムを取上げ、これがデータベース操作によって実現できることから、操作の並列化をデータベースの分割などによって行われることを示した。3つの分割方法を、JAVA言語で実装し、複数台の計算機に処理を分散させる方法を開発した。

  • Acquiring heuristic values in search trees 査読あり

    犬塚信博 中野智文 伊藤英則

    Proceedings of the 11th International Conference on Applications of Prolog (INAP'98), Tokyo   11   157 - 162   1998年04月

     詳細を見る

    記述言語:英語   掲載種別:研究論文(国際会議プロシーディングス)  

    人工知能における状態空間法による問題解決のためのヒューリスティック関数を、帰納学習の方法によって獲得する手法を提案した。プランニングにおける状況を、2状況の比較の関係を帰納することで求める方法を提案してきたが、この論文ではこれを数値に対応付けることでヒューリスティック関数として用いることを提案した。これによって、数値的なヒューリスティック関数を論理的な操作で帰納することを可能にした。

  • A Method to Generate Music Using Fractal Coding 査読あり

    上之園祐二 犬塚信博 中村剛士 世木博久 伊藤英則

    Sixteenth IASTED International Conference Applied Informatics (AI'98) IASTED-ACTA Press   16   244 - 247   1998年04月

     詳細を見る

    記述言語:英語   掲載種別:研究論文(国際会議プロシーディングス)  

    フラクタル符号化を音楽構造の符号化に適用し、これを展開する方法によって音楽を生成する方法を提案した。フラクタル図形は基本図形への基本拡大操作を繰り返し適用して生成される。フラクタル符号化は、これと同様に符号への基本操作からもとの信号系列を生成できる基本拡大操作を求め、これとの差分として信号を符号化する。音楽は、元々基本旋律を変化させながら繰り返すことで生成される。そこで、音楽を信号系列とみなし、フラクタル符号化によってある音楽の基本構造を抽出し、複合化によって別の旋律から音楽を生成する方法を提案した。

  • 飽和節の構造分析に基づいた再帰的論理プログラムの帰納 査読あり

    犬塚信博 古澤光枝 世木博久 伊藤英則

    情報処理学会論文誌 情報処理学会   39 ( 12 )   3155 - 3164   1998年04月

     詳細を見る

    記述言語:日本語   掲載種別:研究論文(学術雑誌)  

    論理プログラムを非常に少数の事例から帰納する方法を、事例の飽和節(その事例から直接導かれる事実の集合)を解析することによって与えるアルゴリズムを与え、他のアルゴリズムとの比較を実験によって示した。再帰的なプログラムであることを仮定して、その構成要素を事例から分析的に獲得する方法はしられる。この場合、想定した形式以外のプログラムを機能することができない。本手法では、事例の飽和節にそのプログラムのトレースが含まれることを仮定することで、広い範囲のプログラムを機能できる。

  • Induction of logic programs with more than one recursive clause by analyzing saturations 査読あり

    古澤光枝 犬塚信博 世木博久 伊藤英則

    Lecture Notes in Artificial Intelligence (Inductive Logic Programming - 7th International Inductive Logic Programming Workshop) Springer   1297   165 - 172   1997年04月

     詳細を見る

    記述言語:英語   掲載種別:研究論文(学術雑誌)  

    論理プログラムを非常に少数の事例から帰納する方法を、事例の飽和節(その事例から直接導かれる事実の集合)を解析することによって与えるアルゴリズムを研究した。複雑な論理プログラムを帰納させることは一つトピックである。プログラム中に再帰節(再帰ルール)が2つ以上あるプログラムを、少数の事例の帰納で求める方法は知られていない。論文では、再帰節が、2、3、4と複数あり、それらが相互に呼び出される構造でなければならない場合も、1,2の事例から帰納できることを示した。

  • Cooperative Behavior of Various Agents in Dynamic Environment 査読あり

    日浦章英 黒田俊哉 犬塚信博 伊藤健一 山田雅之 世木博久 伊藤英則

    (Journal of) Computer and Industrial Engineering Pergamon   33 ( 3-4 )   601 - 604   1997年04月

     詳細を見る

    記述言語:英語   掲載種別:研究論文(学術雑誌)  

    非常に多くの自律エージェントが動作する環境においてエージェントの性質が協調的行動に与える影響を研究した。自律的に動作するエージェントが個々の振る舞いから予測できない振る舞い、性質を集団として現すことを創発という。多数のエージェントに、通信機能、受渡し機能などの諸性質を付与し、集団の振る舞いを観察した。条件によってエージェントが列をなす等、集団形状にパターンが創発される。これはエージェント数等のパラメータの違いによって創発の有無が変わる。これらを観察し、パラメータ等の条件を検討した。

  • Bottom-up induction of logic programs with more than one recursive clause 査読あり

    古澤光枝 犬塚信博 世木博久 伊藤英則

    Proceedings of IJCAl97 workshop Frontiers of Inductive Logic Programming IJCAl97   13 - 18   1997年04月

     詳細を見る

    記述言語:英語   掲載種別:研究論文(国際会議プロシーディングス)  

    非常に少数の事例から複雑な再帰的構造を持つ論理プログラムをボトムアップ手法で帰納するアルゴリズムを提案した。ある事例から演繹的に導かれるすべての事実を論理式で表現したものを飽和節という。飽和節の構造を調べることでプログラムを帰納する方法を提案している。飽和節は、想定されるプログラムのトレース(実行課程)を含んでいることを示し、トレースの性質を頼りに、飽和節からトレースを再現し、そのトレースを創るプログラムを組み立てる。1,2の実行例のみからプログラムを得ることができた。

  • An intelligent search method using inductive logic programming 査読あり

    犬塚信博 世木博久 伊藤英則

    Proceedings of IJCAI97 Workshop Frontiers of ILP IJCAI 97   115 - 120   1997年04月

     詳細を見る

    記述言語:英語   掲載種別:研究論文(国際会議プロシーディングス)  

    状態空間の探索によって問題解決を行う人工知能問題において、帰納学習の方法によってその探索を効率よく行う方法を研究した。プランニングはその各状況を評価し、よい解へと進む探索課題である。論文はプランニングの評価関数を得るために、それと対応する論理プログラムを定め、帰納した。即ち、2つの状況に対し、これを比較する関係に関する論理プログラムである。得られたプログラムから比較の結果を評価地に変換し、これを他よりに探索するアルゴリズムを示し、8パズルなどの小規模問題で効果を示した。

  • An Experiment and Evalution of a Formation Control for Multi-Robot Based on Subsumption Archtecture 査読あり

    上田真裕 山田雅之 犬塚信博 世木博久 伊藤英則

    Proceedings of the 3rd Australian Workshop on Distributed Artificial Intelligence (AI'97 workshop) AI97   145 - 164   1997年04月

     詳細を見る

    記述言語:英語   掲載種別:研究論文(国際会議プロシーディングス)  

    自律エージェントが複数共同して働く環境において、各々の相対的な位置関係(隊形)を制御するための方法を研究した。現実的な作業ではロボットが適切な隊形をとって動作する必要のある場合がある。論文では隊形を取らせるために必要なセンサー情報、行動について、層上の制御構造をもつサブサンプションアーキテクチャーに基づいて検討した。実験によって各隊形での動作をシミュレートし、隊形を維持できる条件を考察した。

  • Allotment of Individual Roles Among Evolutionary Agents in Pursuit Problem 査読あり

    鈴木利和 犬塚信博 世木博久 伊藤英則

    Proceedings of the Workshop on Evolutionary Computation (AI'97 workshop) AI97   66 - 83   1997年04月

     詳細を見る

    記述言語:英語   掲載種別:研究論文(国際会議プロシーディングス)  

    自律エージェントが複数共同して働く環境において、その各々の役割の期待する働きを進化的な学習手法によって発現させるための方法を研究した。エージェント集団を集団全体として評価して進化させる方法と、集団を構成する個々のエージェントをそれぞれの基準で進化させる方法が検討された。前者は確実な方法であるが、進化単位のサイズが大きいため、進化学習の時間複雑さが大きくなる。後者は各々が評価単位であるため、利己的な進化となり役割の分化が置き難い。これらを組合せによって、効率のよいアルゴリズムを提案した。

  • A genetic method for evolutionary agents in a competitive environment 査読あり

    森脇康介 犬塚信博 山田雅之 世木博久 伊藤英則

    Soft Computing in Engineering Design and Manufacturing(P. K. Chawdhry et al eds.) Springer   153 - 162   1997年04月

     詳細を見る

    記述言語:英語   掲載種別:研究論文(その他学術会議資料等)  

    競合的な環境にある自律エージェントの振舞いを進化的に学習するアルゴリズムを与え、実験によって評価した。競合的環境にある複数のエージェントは、1つのエージェントの進化によって、他のエージェントの目標(死滅されないこと)が、高く設定されることになる。したがって、進化は新たな進化へ繋がる正のフィードバックが起きる。このことを確かめるために、2種類の進化的なエージェントを競合的な環境に置き、個体数の変化と、進化されるエージェントの機能を観察した。エージェントの進化が互いに競い合う形となり、明白な目標の設定がなくても進化が継続することを確認した。

  • A Game-theoretic Solution of Conflicts Among Competitive Agents 査読あり

    吉田悟 犬塚信博 世木博久 伊藤英則

    Lecture Notes in Artificial Intelligence (Agents and Multi-Agent Systems - Formalisms, Methodologies, and Applications) Springer   1441   193 - 204   1997年04月

     詳細を見る

    記述言語:英語   掲載種別:研究論文(学術雑誌)  

    競合的なエージェントの行動戦略を決定するゲーム理論的な手法を研究し、現実的な環境での効果を実験によって示した。2者が裏切り、協力の2者択一から一方を選択する囚人のジレンマと呼ぶゲームがある。競合環境を研究するための最もシンプルなモデルである。たくさんのエージェントが資源を共有する環境を制御するための問題を、囚人のジレンマと同様なシンプルなモデルに帰着させ、シミュレーションによって解を得る方法を研究した。

  • Self-adaptation of agent's behavior using GA with n-BDD 査読あり

    森脇康介 犬塚信博 山田雅之 世木博久 伊藤英則

    Proceedings of 5th IEEE International Workshop on Robotics and Human Communication IEEE   5   96 - 101   1996年04月

     詳細を見る

    記述言語:英語   掲載種別:研究論文(国際会議プロシーディングス)  

    n-BDDと呼ぶ振舞い決定の図的表現を用いて自律エージェントの行動を表現し、これを自律的に学習する方法を与えた。BDD、即ち、2分決定グラフは、1つの根を持ち、各頂点の出次数が2の非環状有効グラフであり、各頂点に割り当てられた2値変数(bit)の与えによって根からのパスが決まるもので、バスの先に与えられたラベルを出力するものである。通常、ラベルは0.1の2値であり、それによって論理関数を構成する。論文では、ラベルの値を任意の有限集合とし、これによってエージェントの行動決定をする仕組みとした。これを進化させることで、エージェントの進化を実現し、進化アルゴリズムを提案した。

  • Top-down induction of logic programs from Incomplete samples 査読あり

    Nobuhiro INUZUKA, Masakage KAMO, Naohiro ISHII, Hirohisa SEKI, Hidenori ITOH

    Lecture Notes in Artificial Intelligence (Inductive Logic Programming - 6th International workshop on Inductive Logic Programming) Springer   1314   265 - 282   1996年04月

     詳細を見る

    記述言語:英語   掲載種別:研究論文(学術雑誌)  

    不完全に与えられた事例集合から、それを説明する論理プログラムを帰納するアルゴリズムを与え、実験によって評価した。完全な事例集合とは、あるサイズ以内の可能な事例について網羅したものであり、網羅されていない場合、不完全という。候補プログラムの探索手法と、評価方法を工夫することで、不完全な事例集合から精度良く帰納できることがわかった。従来手法、FOILおよびPROGOLと比べて、完全事例の3割以下しか与えられない不完全事例集合の場合、圧倒的な優位が見られた。

  • A Method to adjust Conceptual Bias for Incremental Inductive Learning 査読あり

    犬塚信博 山田太一 石井直弘

    Proceedings of 13th IASTED International Conference Applied Informatics IASTED-ACTA Press   13   164 - 167   1995年04月

     詳細を見る

    記述言語:英語   掲載種別:研究論文(国際会議プロシーディングス)  

    語彙バイアスを漸増的、適応的に変化させる学習方法を与えた。論文4,8で与えた概念バイアスの変更に対応できる学習アルゴリズムに、能動的にバイアスを変更する機能を加えた。ノイズを仮定しない学習は通常、与えられているバイアス(=仮説空間)でデータが説明できなくなると失敗する。しかし、バイアスの変更が許されるならば学習を継続できる。バイアスの変更豊富は複数あるが、正しい変更を選ばなければ再び変更の必要が起きる。研究は、変更のための戦略を与え、実験で効果を示した。

このページの先頭へ▲