地産地消型電力ネットワークの為の Natural Actor-Critic
を用いた自動取引エージェントの構築
Design of autonomous trading agent using natural actor-critic method to realize a locally
produced and consumed electric energy network
谷口 忠大
Tadahiro Taniguchi
高木 圭太
榊原 一紀
Keita Takagi Kazutoshi Sakakibara
立命館大学
Ritsumeikan University
西川 郁子
Ikuko Nishikawa
Abstract: In this paper, we describe an adaptive trading agent which can sell and buy electric power effectively in a
locally produced and consumed electric energy network, ECONET (Electric Power Cluster Oriented Network). The
trading agents manage the amount of electric power generated by solar panels or other renewable energies and stored
in a storage battery in a minimal cluster. The agent learns a trading strategy by maximizing future cumulative reward
based on reinforcement learning method. Especially, we build autonomous trading agents based on the natural actorcritic method, which is a type of natural policy gradient methods. Several experiments show that the adaptive trading
agents can reduce useless energy consumption and a deficiency in most cases.
1 はじめに
目的とする.
産業革命以来,近代社会は化石燃料の依存度を高め続
けてきた.しかし,近年,二酸化炭素の排出に伴う地球
温暖化や,石油などのエネルギー資源の枯渇などが徐々
に現実的な問題として認識されるようになり,環境への
負荷が小さく,原理的に枯渇することのない再生可能エ
ネルギーへの期待が高まっている.これに伴い,各国で
は多様な新エネルギーの導入に向け様々な政策が実行さ
れ始めている [1].日本でもエネルギー基本計画におい
て「1つのエネルギー源に過度に依存することなく,供
給途絶リスクの小さいエネルギーを中心に,エネルギー
源の多様化を図る.
」
「循環型社会の形成に資するための
施策を推進する.
」としているが [2],このような喫緊の
課題に対し,知能情報処理技術が如何に貢献していける
かは重要な問題である.本研究では重要なエネルギー
供給システムの一つである電力システムを扱う.特に,
松本らにより提案された ECO ネットと呼ばれる分散型
の電力ネットワーク構想における電力融通方式を問題
とする [3].近年,米国から情報通信とエネルギー技術
の融合を図る,スマートグリッドについての議論が盛ん
である [4].しかし,情報通信を既存の配電網に加える
だけでは,再生可能エネルギー普及を取り巻く問題の本
質的解決にはならず,直流配電を含めた分散型の地域電
力ネットワークのアーキテクチャの導入と,情報化・知
能化を併せて構築する,自律分散型直流スマートグリッ
ドとでも呼ぶべきものの普及が重要となる.
2
本論文の目的は ECO ネット上での電力取引モデルを
構築したうえで,取引戦略を最適化するように学習を
進めるエージェントを電力融通装置としての電力ルー
タ上に設計する手法を構築する事である.これにより
再生可能エネルギーを自律分散的に授受するシステム
について検討する.学習エージェントについては強化学
習を適用可能なように取引過程の定式化を行い,具体
的な学習手法としては方策勾配法の一種である Natural
Actor-Critic[5] を採用し,その有効性を検証することを
研究背景
再生可能エネルギーに基づく分散型電力ネットワー
ク
化石燃料は地球上に偏在し,その輸送や発電に大規模
なシステムを必要とすることから,経営には膨大な資本
と設備・管理技術を必要とする.それ故に発電事業者は
独占・寡占化され経済学的にも健全な競争市場を形成す
ることが困難であり,独占経済におけるミクロ経済学的
な非効率性等が問題視されてきた.日本でも’90 年代に
は電力市場の自由化が課題として取り組まれてきた経
緯がある [6, 7].また,配電においても海岸や山奥など
の人里離れた発電所で大規模に発電し各住戸.事業所に
送電されるという集中管理型システムが形成されてき
ており,この長距離送電の為に発生する電力ロスも大き
い.エネルギー・環境問題は経済のみの問題ではなく化
石資源が持つ偏在性は社会・政治システム的にも大きな
問題を有していることが指摘されている [8].
これに対し,太陽光,風力等に代表される再生可能エ
ネルギーは地球上に遍く存在する事が特徴である.ま
た,発電とその管理には大規模なインフラを整備する必
要が無いため,インフラ産業に多く見られる程の極端
な規模の経済は働きにくく,資源国から脈々と続く化石
資源の連鎖 [8] からも独立して存立し得る点が特徴的で
ある.その為に,集中管理型の電力ネットワークではな
く,自律分散的に多数存在する発電拠点をつなぎ合わせ
る分散型電力ネットワークの構想が再生可能エネルギー
利用には適合していると考えられている [3].
マイクログリッド,ECO ネットといった分散型電力
ネットワークは従来の大規模発電・長距離送電方式と比
較して,電力の送電ロスの回避や発電による熱エネル
ギーの有効活用,環境負荷が小さい,また災害による大
規模停電を起こりにくくするリスクの分散化ができる
などのメリットがあるが,現在既に敷かれている集中管
理型の系統電力網との共存を如何に果たすかが問題で
2.1
あり研究が進められている.
2.2
分散型電力ネットワーク
再生可能エネルーギーによる発電は分散的に行うこ
とが可能であり,太陽光発電においても各世帯レベルで
の導入が図られている.しかし,一方で太陽光・風力に
代表される再生可能エネルギーによる発電は非定常的
であり,各世帯レベルの電力消費パターンに合わせて平
準化することは困難である.これに対し,主に二つのア
プローチがなされて来た.一つは従前の配電網を前提と
した電力会社による電力供給と買取りである.日本では
RPS 法,ドイツ等では Feed-in Tariff といった法整備が
なされ再生可能エネルギーの普及に一役を買っている.
しかし,これには交流の系統電力を不安定化させる逆
潮流の問題が存在し,再生可能エネルギーが既存の系
統電力に対し無視しうる割合である時期は問題ないが,
一定の位置を占めようとした場合には問題となる.もう
一つは,地域の電力網を一つの単位として管理しようと
するマイクログリッドの考え方である.八戸や愛地球博
で実証実験が行われてきた.しかし,交流の配電を基礎
とし,系統電力との整合性をとろうとするマイクログ
リッドでは,システムの全体設計が複雑であり,システ
ム設計後の改変が容易ではない.
は ECO ネット上で各発電・需要者間の電力のやり取り
を自由化し相互に売買する事の出来る電力融通制度を
考える.
2.3 電力融通の自動化
しかしながら,電力売買を各世帯単位で行う事は新た
な問題を生む.各世帯において誰が売買を行うかという
問題である.各世帯で誰か一名を電力売買のデイトレー
ドの為に割くという発想は非現実的である.そこで,本
研究では電力融通を担う電力ルータを知能化し,自動的
に電力売買を行わせることを考える.株取引やオプショ
ン取引の領域で自動的に売買を行うシステムトレード
の方法は研究されており,その様な研究は人工市場と呼
ばれているが,電力取引への適用事例は少ない [9].さ
らに,この電力ルータ上のエージェントに経験に基づく
学習を行わせる事で,よりその状況に合わせた電力取引
戦略を獲得する事を目指す.ECO ネットにおいて各世
帯・事業者にとって最適な取引戦略は発電量,消費量,
蓄電池の容量,属するネットワークの他の参加者の戦略
などの諸条件により明らかに変化する.故に固定的な取
引戦略では十分ではなく,電力ルータ上の学習エージェ
ントは接続されたネットワーク,地域に合わせた取引戦
略を獲得することが重要となる.
ECO ネットはこれまでの集中管理型の系統電力網や
これに対し,松本らは ECO ネットと呼ばれる太陽光
マイクログリッドと異なり,普及の容易さを確保するた
発電と直流主体の自律分散型の電力ネットワークを提案
している [3].ECO ネットでは地域のネットワークを系 めに,新規参入者が発電機,蓄電池,電力ルータを持つ
統電力網からは基本的に独立させ,直流でつなぐ1 ため, ことで新たなミニマルクラスタを逐次的に自由に追加し
交流特有の同時同量の原則は存在せず適応的なシステ うるシステムである点が特徴となっている.そのため,
ム改変が可能であり,システム設計後の新たな発電・消 新たな電力装置の設置や電力の売買という意思決定は
費拠点の追加が可能である.太陽光発電,蓄電池,電力 ミニマル・クラスター所有者の所有権の下に行われる必
ルータを持てば,電力ネットワークに接続できるという 要がある.故に,ミニマル・クラスターの所有者である
意味で,インターネット類似のシステムとして提案され 経済主体の利得最大化を行うのが電力取引を委任され
ている.電力会社による買取りのアプローチが電力系統 ている各電力ルータ上の学習エージェントの目的となる
をバッファとして捉えるのに対して,マイクログリッド べきである.そこに電力ロスの低減という付加的なペナ
や ECO ネットでは地域ネットワークに蓄電池を持つ事 ルティを加える事で,全体としての電力ロス最小化を副
でバッファとする.しかし,各世帯が単一の蓄電池を設 次的に目指そうというのが ECO ネット上の自動電力売
置し全てを賄うのはコスト的に不可能である.よって, 買システムの目的となる.
本研究では,強化学習に基づき ECO ネット上で電力
発電・消費拠点間で各発電性能や消費パターンの時間的
ルータが適応的に取引を行う全体像をモデル化し,Nat特性に合わせて適切に融通しあう必要がある.
多くのマイクログリッドの実証実験では融通自体を集 ural Actor-Critic によって電力ルータの学習則を構築し,
中管理的に行ってきたが,各世帯・事業所が蓄電池や発 その有効性を検証する.
電装置を投資により設置しネットワークに接続すること
3 地産地消型電力ネットワークと電力市場モ
で運用することを前提とする ECO ネットでは集中管理
デル
の視点では無く各参加者の投資回収可能性の視点から
3.1 ECO ネットの概要
考えなければならない.トップダウンな集中管理により
ECO ネットとは松本らによって考え出された次世代
余剰電力を無償で融通されてしまうような電力システ
の電力アーキテクチャの構想であり,電力クラスターを
ムでは,投資回収を困難にし,結果的に再生可能エネル
指向したネットワーク (Electric Power Cluster Oriented
ギー機器に対する投資意欲を削ぎ,再生可能エネルギー
Network) の略である [3].図 1 に ECO ネットの概念図
の普及を妨げてしまう可能性がある.そこで,本研究で
を示す.ECO ネットには発電・消費する複数のミニマ
1 広義には DC マイクログリッドという概念に含まれる.
ル・クラスターが存在しており,それらが自らの持つ蓄
ミニマル・クラスター 電力ネットワークの最小単位を,
ミニマル・クラスターと呼ぶ.構成要素は,各種電
気機器,給電線,蓄電装置,発電装置,そして電力
ルータである.このミニマル・クラスターは一般
家庭や,小規模工場,共同住宅などが想定される.
従来の電力系統が単一方向の電力エネルギーの流
れを想定しているのに対し,ミニマル・クラスター
同士の双方向の電気エネルギーのやり取りを基本
とする.
図 1: ECO ネットの概念図
電装置に電力を蓄え,また余剰・不足分については電力
ルータを通じて電力を融通しあう.このミニマル・クラ
スターが地域社会内で各々の家庭や工場に相当する.既
存の電力システムでは大規模発電を行う電力系統を頂
点とし需要家を底辺に持つ放射状系統が基本であるの
に対し,ECO ネットでは分散型を成している.従来の
電力ネットワーク構想が,少数の発電事業者と多数の末
端消費者という二分法であったのに対して,全ての参加
者を基本的に生産消費者 (prosumer)[10] として捉えるの
が ECO ネットの特徴の一つである.ここで,ECO ネッ
トに登場する概念の説明を行う [3].
ローカル・クラスター ミニマル・クラスターを数個か
ら一万個程度ネットワーク接続した電力クラスター
を,ローカル・クラスターと呼ぶ.ローカル・クラ
スターの構成要素は,中小規模発電装置(火力,水
力,風力など)を持ち,そのローカル・クラスター
内の電力が不足したミニマル・クラスターを支援
し,近隣のローカル・クラスターとの電力の融通を
行うために電力ルータを備える.本研究における
電力売買では市場として決済情報を集約する役割
もローカル・クラスターが担うものとする.
ECO ネットの構想では電力融通の手法については定
めていない.本論文では前章に述べたように,各ミニマ
ル・クラスターに適応的な電力取引エージェントを導入
し電力売買を通して市場原理に則った電力融通を実現す
る事を考える.
3.2 電力取引市場の設計
電力市場の自由化は従来の電力系統下でも進められ
てきた.発電事業者の電力の価格は総括原価主義の規
電力クラスター ECO ネット上での電力クラスターとは, 制下でムダなコストまで料金に上乗せされていたのが,
巨大な単一システムではなく,複数の電力システ 電力の自由化が導入されれば競争によって発電コストが
ム (太陽光発電や,風力発電,燃料電池など) から 下がり,社会的効用の増大とコストを下げた発電者への
なる電力のネットワークで構成されたものである. 利潤を増大できること等が期待されてきた [1].再生可
電力クラスターは基本的に電力を自給自足するも 能エネルギーを主とした ECO ネット下では,必ずしも
のとするが,それぞれ発電と需要に過不足が生じ 独占企業の存在は前提とされないため,自由な売買市場
ても良いとする.また,電力クラスターに存在しう を需給バランスに則って設計することが基本的には望ま
るものは必ずしも発電機能,需要機能を備えてい しいと考えられる.本節では本論文で採用する電力取引
なくても良い.発電だけを行うクラスターや,蓄電 制度及び取引方法について述べる.
のみ,あるいは電力の消費のみを行うクラスター
3.2.1 取引制度の設計
というものも例外的に考えられる.
本研究における ECO ネットでは各ミニマル・クラス
電力ルータ 電力クラスターをノードとして,電力クラ ターは電力ルータを通じて余剰電力を融通し合う.この
スター間の送電線をリンクとして,電力ネットワー とき,各ミニマル・クラスターは,自らの利潤を最大化
クが形成される.そして,電力クラスター間の電 しようとするという行動基準により取引を行うものとす
力のやり取りを制御する機能が電力クラスターに る.北欧4カ国で機能しているノルドプール (NordPool)
備わっていなければならない.この機能を持つ装 [1] という電力取引所を参考として取引制度を設計する.
置を電力ルータと呼ぶ.電力ルータの基本機能は この取引制度では発電会社,最終需要家,配電会社,大
電気エネルギーのルーティングであり,どの近隣 口のトレーダーやブローカー等の市場参加者が取引市場
クラスターを対象とするのか,エネルギーを送り が開かれる日の1時間ごとの自社が望む需要,供給予定
出すのか受け取るのか,電力量の制御などである. 表を前日正午に通知する.取引市場ではこれを集計し,
本研究では電力売買における資金管理も電力ルー 市場全体の需要曲線と供給曲線を描き,両曲線の交点で
取引量,均衡価格を決定する.これをシステム価格とい
タの対象であるとする.
刻々と発電・消費量が変化する中での時間的な取引戦略
の獲得についての研究は未だ少ない.
定常的な発電を行う原子力発電など大規模な事業者
まず,電力市場におけるミニマル・クラスターのエー による発電が主と捉えられたシステムでは時間単位で
ジェント集合を M = {Ai : i = 1, . . . , n} とする.エージェ の状態変化はクリティカルな問題では無い.しかし,再
ント Ai は自らのミニマル・クラスターの蓄電量や時刻 生可能エネルギーの非定常性の特質および,蓄電装置の
等の諸条件を勘案し,市場に取引条件を出力する.取引 容量制約などを考慮すると,状態変化を有する系として
条件は売買量 si に対する単位電力量あたりの価格 Pi (si ) モデル化する必要がある.本研究ではマルコフ決定過程
という形で市場機能を担うローカル・クラスターの電力 (MDP: Markov Decision Process) として各エージェント
ルータに提出される.ここでは購入の場合 si を正,販 にとってのダイナミクスを捉える事で強化学習に基づく
売の場合は負とする.電力取引市場ではすべてのエー 取引戦略の獲得を行う.
ジェントの取引条件を積み上げる事によってローカル・
市場のような各々が利益を最大化しようと強化学習を
クラスター内における需要曲線と供給曲線を決定する. 行う集団はマルチエージェント強化学習の系として捉え
その上で,両曲線の交点を計算することで,その時間の られる.しかし,この場合,複数のエージェントが同時
市場での電力量の単位当たり価格と各エージェントの 進行的に学習することにより各エージェントにとっての
総取引量を決定して電力売買の決済を行うものとする. 環境の MDP 性が崩れ,学習が困難となる同時学習問題
図 4 に入札から決済に至る概略図を示す. 詳細は 4.3 節 の存在が知られている.例えば,マルチエージェント強
にて説明する.各市場参加者が注文数量と価格を市場に 化学習では,他のエージェントの行動目標や行動・状態
提出し,そのマッチングをとることにより取引を行う方 などを観測できないことが多く,部分観測マルコフ決定
式を板寄せ方式と呼ぶが,本方式は連続的な価格と注 過程 (Partially Observable MDP : POMDP) となっている
文数量の関係を関数として出力するが広い意味では板 [18].これらの問題に対応するために,profit-sharing を
寄せ方式の一種と言える.全エージェントが入札を一斉 行う方法やタスク構造に合わせた報酬分割を行う手法
に行った後に市場価格により各エージェントの電力取引 などが提案されている [19, 20].
量と電力単価が決定される為に,自らが「売り」か「買
これに対し,通常の MDP に対する強化学習手法で
い」かもこの時点で決定する.これによりエージェント あっても,方策を直接探索する方策勾配法 [21, 22] と呼
はローカル・クラスター電力市場で売買することが可能 ばれる手法は Q-learning や SARSA などの価値関数から
となる.具体的な数式については後述する.
間接的に方策を決定する手法に比べ POMDP 下でも頑
強であると言われている.方策勾配法の中でも近年で
3.2.2 マルチエージェント系における適応的電力取引
ミニマル・クラスターは発電装置を備えた一般の家庭 は方策勾配の方向にパラメータ空間の情報幾何的な特
を想定し,秒から時間オーダーで変動する非定常な発 性を考慮した自然方策勾配法が注目されている [23, 24].
電を行う再生可能エネルギーを電力源として想定する. 本研究では,特に,自然方策勾配法の一種として Peters
また,電気二重層コンデンサなどの蓄電装置を持つ事を らが提案した Natural Actor-Critic[5] に基づいて取引戦
想定するが,蓄電池はまだまだ大きく,かつ高価である 略の適応的改善を実装する.Natural Actor-Critic は旧来
ため,一家庭が必要十分な蓄電を行う事は出来ないと考 の方策勾配法よりも学習が効率的であることが知られ
えられる.そのため適切なタイミングで頻繁に効率的な ている.
取引を行い,ローカル・クラスター内で平準化する事が
4 Natural Actor-Critic によ る適 応 的取引
期待される.頻繁な人手による取引を行うことは現実的
エージェントの構築
ではないため,前述したように自動取引エージェントの
本章では ECO ネットにおける適応的取引エージェント
導入を検討する.
の構築を行う.まず,用いる強化学習手法である Natural
多様な金融市場については市場を計算機上でモデル
Actor-Critic の導入を行い,次に ECO ネットでの取引過
化し,結果を生み出す要因やプロセスを把握しようと
程を強化学習で扱いうる形に定式化する.最後に Natural
する研究が盛んに行われるようになってきている.この
Actor-Critic を取引エージェントに適用する.
ような市場モデルを構築する手法は人工市場と呼ばれ
株式や先物市場など多くの市場が研究の対象とされて 4.1 方策勾配法
MDP に基づく強化学習では,エージェントが時間 t
いる [11, 12, 9, 13].また,実用的な自動取引について
もシステムトレードについての一連の研究開発がなさ において環境の状態 xt ∈ X を観測した後に方策 π(x, u)
れてきている [14].電力市場についての研究では特に既 に従い行動意思決定を行い行動 ut ∈ U を環境に出力し
存の電力系統における電気事業者の価格決定を議論す た後に遷移後の環境の状態 xt+1 を観測し,同時に報酬
る場合が多く [15, 16, 17],ECO ネットのように生産消 rt がエージェントに与えられる [25] という一連の流れ
費者の集合として電力市場を捉えた場合の研究や,時々 を前提にしてエージェントが学習を行う.エージェン
う.これを参考にしつつ,本研究のモデルでは各ミニマ
ル・クラスターが需要・供給曲線を市場に毎時提出する
事により電力取引を行う.
トは将来に亘る獲得報酬の期待値を最大化するように
学習を行う.ここで,MDP とは次状態の生起確率と報
酬の期待値が現在の状態と行動のみに依存する事を指
す.本節では本論文でエージェントが行動戦略を獲得す
るための学習方法である Natural Actor-Critic の基礎と
なる方策勾配法の枠組みについて述べる.強化学習に
は主に Q-learning や SARSA 等といった行動価値関数を
推定することで最適方策を求める価値に基づく方法と,
Actor-Critic 法のように最適方策を直接推定する方策に
基づく方法がある.後者の方策勾配法では確率的な方策
を陽に表現し最適方策を直接近似するため,Q-learning
などの価値に基づく方法のように行動価値関数の変化
に対して急激に方策が変化する様なことが無い.そのた
め評価関数を徐々に増加させるように,逐次的に方策自
体を直接的に改善していけるため,ある程度の POMDP
下でも学習を進める事が出来ると言われている.また,
方策勾配法では直接方策を近似するため,行動価値に基
づく方法に比べ方策の出力値を連続値として設計する
事が容易である.本論文が問題とする系においては行動
出力が電力取引の価格指定に相当し,この値は連続的に
変化する.これも本論文が方策勾配法を採用する理由の
一つである.
方策勾配法では次のように収益の期待値を J(θ) で表
す.
J(θ) =
E{(1 − γ)
∫
dπθ (x)
X
=
γt rt | θ}
(1)
t=0
=
d πθ
∞
∑
(1 − γ)
∞
∑
∫
πθ (x, u)r(x, u)dxdu
(2)
U
γt p(xt = x)
(3)
t=0
J(θ) は将来に亘って得られる累積報酬の割引和になっ
ており,この評価値を最大化するように方策を最適化す
る事が強化学習の課題となる.ここで,方策 πθ (x, u) =
p(u | x; θ) はパラメータベクトル θ によって表される方
策であり,dπ は割り引かれた状態分布である.次に J
をパラメータベクトル θ に関して偏微分し J(θ) の勾配
を求める.
方策勾配法では,この勾配ベクトル ∇θ J を用いて方
策のモデルパラメータ θ を次のように更新する事で局
所最適な方策を探索する.
θt+1 = θt + α∇θ J(θ)
れるが,パラメータ空間が歪んでいるときにはプラトー
現象などにより学習性能が悪化する事が知られている.
このプラトー問題を回避する有効な手段として提案され
た手法が自然勾配法である.自然勾配法では通常の勾配
にフィッシャー情報行列 F の逆行列を乗ずる事で自然勾
配を求めるが,強化学習においてはこの自然勾配が比較
的容易に計算しうることが示されている [24].Natural
Actor-Critic とは自然勾配法を方策勾配法に適用した自
然方策勾配法の一つである.自然勾配はアドバンテージ
関数を ∇θ log π を基底関数として推定したときの係数
ベクトルに一致することが知られている.アドバンテー
ジ関数とは行動価値と状態価値の差分によって表され
る関数であり,状態価値の寄与を除いた行動の価値を表
現する関数である [26].具体的な実装としては価値関数
の推定方法として LSTD-Q(λ) を用いた無限区間タスク
での Peters らによって提案された Natural Actor-Critic[5]
を用いる.LSTD-Q(λ) は Bradtke らによって提案された
価値関数の推定手法であり,旧来の TD 学習が TD 誤差
に基づいて逐次的に価値関数を更新するのに対し,価値
関数が基底関数の線形和で表されることを利用し最小
自乗法に基づき解く手法である [27, 28].その解は TD
学習により得られる最適解と共通であることが知られ
ている.Natural Actor Critic では行動価値関数の一部で
あるアドバンテージ関数を正確に求める必要があるた
め,統計量から最適な価値関数を直接求める事の出来る
LSTD-Q(λ) を用いている2 .アルゴリズムは以下である.
ま ず,パ ラ メ ー タ 表 現 さ れ た 方 策 π(x, u) =
p(u | x, θ)(初期パラメータ θ = θ0 ),その導関数
∇θ log π(x, u),状態価値関数 V π (x) のパラメータ化
のための基底関数 ϕ(x) とおく.
1. 初期状態 x0 ∼ p(x0 ), パラメータを選択 At+1 =
0, bt+1 = zt+1 = 0.
2. t=0,1,2,... で以下 (3.∼8.) 繰り返し
3. 行動 ut ∼ π(xt , ut ) を決定,次の状態 xt+1 ∼
p(xt+1 | xt , ut ) とそれにともなう報酬 rt =
r(xt , ut ) を観測.
4. LSTD-Q による状態価値評価 (Critic 器):
価値関数を
V π (xt ) = ϕ(xt )⊤ νt
(4)
ここで α(> 0) は学習率,勾配 ∇θ J は収益の期待値にお
けるパラメータ θ の最急上昇方向を表すので方策勾配
法は少なくとも局所最適解を得ることができる事が知
られている.
4.2 Natural Actor-Critic
収益の期待値をパラメータ θ に関して偏微分した ∇θ J
は収益の期待値における θ の最急上昇方向を表すとさ
(5)
として,Actor に適合するアドバンテージ関数
の近似式を
fωπ (xt , ut ) = ∇θ log π(ut | xt )⊤ ωt
(6)
とする.
2 自然方策勾配法の定式化において価値関数を逐次的に求める形の
ものも試されているがそのような実装は学習が不安定化する事が多い
[29].
5. 基底関数の更新:
Bidding
ϕ̃t
=
[ϕ(xt+1 )⊤ , 0⊤ ]⊤
(7)
ϕ̂t
=
[ϕ(xt )⊤ , ∇θ log π(xt , ut )⊤ ]⊤
(8)
Agent
(Power router
of minimal cluster)
A
6. 十分統計量の更新:
zt+1
= λzt + ϕ̂t
At+1
= At + zt+1 (ϕ̂t − γϕ̃t )⊤
(10)
bt+1
= bt + zt+1 rt
(11)
⊤
⊤ ⊤
[νt+1
, ωt+1
]
=
A−1
t+1 bt+1
(12)
8. Actor のパラメータ更新
アドバンテージ関数のパラメータベクトル
で表される自然勾配 ωt が時間枠 Wh で収
束したとき (例えば ∀τ ∈ [0, ..., Wh ] に対し
,cos(∠(ωt+1 , ωt−τ )) ≥ ϵ ) 方策パラメータを更
新した上で,十分統計量を減衰させる.
θt+1
=
θt + αωt+1
zt+1
← βzt+1
(14)
At+1
← βAt+1
(15)
bt+1
← βbt+1
(16)
(13)
i
A1
An
si(P ã )
S (t)
i
D ( h)
i
Generation / Consumption
E
7. Critic のパラメータ更新
m
rpi
Battery
(9)
Market
(Power router
of local cluster)
Wallet
ri
i
ui
i
C
h
t
i
+1
図 2: 本稿のモデルにおける ECO ネットの電力取引全
体プロセス
内部での蓄電池への流入量として重要になる.また,時
刻 t における売買による流入は Ai の購買量 si (t) と等し
くなる3 .各ミニマル・クラスターは蓄電池を有してお
り時刻 t において蓄電残量を S i (t) とする.また,その
最大,最小容量を S imax , S imin とする.これらの流入によ
り蓄電残量 S i (t) は次式に基づいて毎時刻変化する.
S̄ i (t) =
S i (t + 1) =
S i (t − 1) + si (t − 1) + Di (t) (17)
max((min(S̄ i (t), S imax ), S imin )
(18)
9. 終了
取引は 2 時間に一度行われるものとし 2 時間毎に t は 1
加算される.h は t の周期成分を取り出した 24 時間周
期の値であり,具体的には h は t を 12 で割った余りで
本研究ではこの Natural Actor-Critic に基づく方策勾 ある.本研究では太陽光発電の下で一定の生活パターン
配法を用いて自動取引エージェントを構築する.
で居住者が生活する系を想定し,系はノイズ程度の変化
また,マルチエージェント系に於いては方策更新を非 を除き 24 時間周期の周期性を持つものとする.これら
同期にする事で同時学習問題を緩和できるという研究 に基づき,エージェントは毎時刻,状態変数 xi = (S i , h)
もなされているが,Peter らの手法を用いると,方策更 を観測出来るものとする.この状態変数に基づきエー
新は価値関数の収束に伴い非同期的に行われる為,この ジェントは取引条件の意思決定を行い,行動出力とし
ような非同期的な方策更新を人為的に作り込むことな ui = (Pbuy , P sell ) を出力する.
i
i
sell
く自動的に生み出す事が出来る.この点からも Natural
Pbuy
,P
は市場に提出する需要・供給曲線の内それ
i
i
Actor-Critic は本論文が問題にするようなマルチエージェ ぞれ最大限買う,最大限売る場合の価格であり,このと
ント強化学習課題に有効であると考えられる.
きの価格 p に対する購入量 s を決定する入札曲線は図 3
の様になる.購入量 s の負の部分は売却量を表す.
4.3 ECO ネットへの適用
本節では実験のための ECO ネットにおける取引制度
と各ミニマル・クラスターのモデル化,及びエージェン
トの学習器のモデル化について述べる.
4.3.1 モデルの全体像
図 2 に ECO ネットのミニマル・クラスターの発電・
消費からエージェントの取引条件の意思決定,市場取
引,そしてその結果からの収益と電力量の流入,に至る
情報の流れを簡単に示す.まず i 番目のエージェント Ai
の時刻 t での発電量,消費量を Ei (t), Ci (t) とする.ここ
でその差分 Di (t) = Ei (t) − Ci (t) がミニマル・クラスター
 min

S i − S i (t) (p > Pisell )




S imin −S imax

sell
min


 Psell −Pbuy (p − Pi ) + (S i − S i (t))
i
i
si (p) = 



(Pisell ≥ p ≥ Pbuy


i )


 S max − S (t) (p < Pbuy )
i
i
i
(19)
buy
エージェントは毎時刻 Pi ,Pisell を市場に出力する事で,
図 3 に示すような入札曲線を生成する.入札曲線は価格
から数量への関数であるが,関数を上下限を持つ一次関
3 簡単の為,今回は送電ロスや蓄電ロスは考慮しない.流入に係数
などをかけることにより拡張は可能である.
図 4: 市場決済の概念図
時刻 t での市場での決済価格を P∗ (t) とすると,エージェ
ント Ai の売買収支は mi (t) = −si (t) ∗ P∗ (t) となる.決済
後,各エージェントに購買量 si (t) と売買収支 mi (t) が流
入し,一サイクルが終了する.
p
報酬 rt は売買収支 mi と電力超過・不足ペナルティri
p
の和とし,ri は



 −(m+ + ζ + |S̄ i (t) − S imax |) (S̄ i (t) > S max )
p
ri (t) = 

 −(m− + ζ − |S imin − S̄ i (t)|) (S̄ i (t) < S imin )
図 3: 入札曲線の例
数に制約することで,端点二点の出力で入札曲線の出力
に替える事ができる.板寄せ方式の市場では取引数量と
価格を各取引主体が出力し,これを合わせる事で全体で
の需要・供給曲線が形成されるが,当市場でも同様の事
buy
を行う.図 4 に示すように,各エージェントは Pi ,Pisell
を出力する事で取引条件を市場に出力するが,取り引き
数量 si について正の部分が買い手として,負の部分が
売り手としての取引条件となる,これらを数量の方向に
足し合わせる事で需要曲線・供給曲線が生成される.こ
れらの曲線の交点を求める事で決済される際の価格 P∗
が求まる.具体的には数式 (20) を満たす均衡価格 P∗ を
決済価格とする.
∑
s.t.Ai ∈M
si (P∗ ) = 0
(20)
ここでそれぞれの定数は超過・不足自体に係るペナルティ
m+ , m− > 0,単位電力あたりのペナルティζ + > 0, ζ − > 0
である.2 章で記述したように,あくまで電力ルータは
個々のミニマル・クラスターの所有の下に有るため,個々
のミニマル・クラスターの利得最大化に基づいてエー
ジェントの学習が進行する事を前提としている.
このように系をモデル化する事で,他のエージェント
の方策が一定であるとしたとき,この問題は他のエー
ジェントの蓄電残量を隠れ状態とし,周期的に変化する
時間と自らの蓄電残量を状態とした強化学習課題として
定式化される.これにより様々な強化学習手法を ECO
ネット上の自動取引課題に適用する事が可能となる.
4.3.2 学習器の設定
入札曲線の学習について述べる.1 エージェントに
ついて述べるので,簡単の為,エージェントの添え字 i
は省略する.方策関数 π(x, u; θ) を方策パラメータ θ =
{θ1 , θ2 , σ1 , σ2 } とガウス関数を用いて下の様にモデル化
した.


∏
 −1 (uk − fk (x, θk ))2 
1
π(x, u; θ) =
exp 
√
 (21)
2
σ2k
2πσk
k=1,2
f1 , f2 は行動出力分布の中心を表わし,それに標準偏差
σ1 , σ2 のガウスノイズが足される事で,探索を行いなが
ら価格決定がなされる.ここで u1 = Pbuy ,u2 = P sell と
する.ここで,価値関数 V π (x) および fk を共通の基底
関数 ϕ を用いて下記のように表わす.
V π (x) =
ϕ(x)⊤ ν
(22)
⊤
fk (x; θk ) =
ϕ(x) θk
(23)
また,アドバンテージ関数の係数ベクトル ω について
は,上記方策関数の定義に従い,式 (6) に基づき定義す
る.ここで基底関数 ϕ(x) の第 j 成分 ϕk (x) はクロネッ
カーのデルタ δi j を用いて,



(0 ≤ k < 12)
 δkh
ϕk (x) = 
(24)

 ρk−12 (12 ≤ k ≤ 15)
ρ =
S max − S
S max − S min
(25)
と表わされるとする.上段のクロネッカーのデルタで表
される部分は周期的に変化する時間に依存する項,下段
の項は電池残量への依存性を三次の多項式で表現して
いる.この前提の下で自然勾配計算の為に ∇θ log π(x, u)
を計算する.θk の第 j 成分を θk j として,
∂
log π
∂θk j
=
∂
log π
∂σk
=
ϕj
σ2k
εk
(26)
(ε2k − σ2k )
(27)
σ3k
となる.ただし ε1 = Pbuy − f1 , ε2 = P sell − f2 である.
よって,Natural Actor-Critic における各の基底関数の
更新については
ϕ̃t
ϕ̂t
=
=
[ϕ(xt+1 )⊤ , 0⊤ ]⊤
⊤
(28)
⊤ ⊤
[ϕ(xt ) , ∇θ log π(xt , ut ) ]
(29)
より,ϕ′ = ϕ(xt+1 ), ϕ = ϕ(xt ) として,
ϕ̃t
=
ϕ̂t
=
5.1 実験条件
本モデルに於ける学習エージェントにとって発電量 Ei
と消費量 Ci は直接的には意味が無く,蓄電池への流入
量 Di のみが問題となる.本モデルでは一日毎の発電・
消費の周期性を仮定しているので,ミニマル・クラス
ター i の時間 t における流入量 Di (t) を以下の様に sin 波
形を用いて近似する.
[ϕ′⊤ , 0⊤ ]⊤
(30)
2
2
2
2
ε
−
σ
ε
−
σ
ε
ε
1
2
[ϕ⊤ , 2 ϕ⊤ , 2 ϕ⊤ , 1 3 1 , 2 3 2 ]⊤ (31)
σ1
σ2
σ1
σ2
となる.その後,Natural Actor-Critic アルゴリズムにそっ
て状態価値関数,アドバンテージ関数の近似式のパラ
メータベクトルを更新し,ある方向に収束したと判定さ
れれば方策を更新する.収束判定は時間 t + 1 と時間 t − τ
の間のそれぞれのパラメータベクトルのなす角の cos 値
⟨ωt+1 , ωt−τ ⟩
>ϵ
が十分 1.0 に近い閾値 ϵ に対し cos θ =
∥ωt+1 ∥∥ωt−τ ∥
を満たせば収束したとみなし,方策パラメータを更新
する.
5 シミュレーション実験
実験では,仮想的なローカル・クラスターを計算機環
境に構築し,本手法の有効性を検証する.
Di (t) = −gi ∗ cos(2π
t + ai
) + bi + ni (t)
12
(32)
ここで gi ,ai ,bi ,ni (t) はそれぞれゲイン,パターンの
時間方向のずれ,発電が消費に勝る度合い,ノイズ項と
なっている.本実験では gi に対して 5% のノイズ項を
一様乱数で生成し付加する.
また,学習しないエージェントの方策,及び学習エー
ジェントの初期方策は残存蓄電量を参照しながら,十分
に残量がある際には安く,少なくなった際には高く値付
けするよう下式に設定した.
P sell = 40 − 20ρ
(33)
Pbuy = 20 − 10ρ
(34)
つまり θ1,12 = 20, θ1,13 = −10, θ2,12 = 40, θ2,13 = −20 とし
た.初期方策では時間に対する依存性は自明でないので
設計しなかった.さらに価格の出力の変動幅(ガウス分
布に従う)は σ1 = σ2 = 0.5 としている.また出力する
buy
取引条件について Pisell > Pi > 0 を制約条件として与
える.なお,実験結果は状態遷移,行動等にノイズを含
んでいるので各条件に対して 5 回実験を行い,その平
均を示している.
実験条件として1日の取引回数は 12 回,学習率 α =
1 × 10−4 ,適格度トレースの割引率 λ = 0.98,割引率
γ = 0.98,十分統計量の保持率 β = 0.8,方策勾配の収
束判定のウィンドウ幅 Wh = 12 × 7 = 1[week] 及び収
束判定の閾値 ε = 0.99 とした.また,報酬関数の係数
m+ = m− = 1.0 × 102 ,ζ + = 1.5 × 104 , ζ − = 1.0 × 104 とし
た.勾配については更新ベクトルのノルム最大値を 1.0
として,急激な変更がなされないよう制約を与えた.他
のパラメータは gi = 20, bi = 0, S imax = 100, S imin = 25 と
した.また,初期蓄電量は S i (0) = 50 とする.
各ミニマル・クラスターの電力流入の特性については,
操作可能なパラメータが多い.本実験では焦点を絞るた
めに式 (32) の ai を変化させることで各ミニマル・クラ
スター毎の違いを設計した.ローカル・クラスターの条
件設定としては gi や bi に多様性を持たせる事も検討の
上では重要である.しかし,一方で ai が同一で,各ミ
ニマル・クラスターにおいて発電消費パターンが同期し
てしまった場合,あるミニマルクラスタで余剰が発生す
るときには他のミニマルクラスタでも余剰が発生し,あ
るミニマルクラスタで不足が発生した場合には他のミニ
マルクラスタでも不足が発生すると言うことが起きる.
この場合,電力融通において適切な需給関係が構築でき
100000
0
-100000
-200000
-300000
-400000
-500000
A1
A2
A3
A4
A5
A6
0
10
20
30
40
100000
0
-100000
-200000
-300000
-400000
-500000
50
A1
A2
A3
A4
A5
A6
0
10
20
30
40
50
100
75
50
25
initial
0
10 20 30 40 50 60 70 80
100
75
50
25
learned
0
10 20 30 40 50 60 70 80
図 6: 上:学習初期のバッテリー残量変化,下:学習終
期でのバッテリー残量変化 (ともに横軸は時間ステップ)
100000
図 5: (上)学習者の存在しない系での各エージェント
の獲得報酬遷移,
(下)A1 のみが学習する系での各エー
ジェントの獲得報酬遷移
A1
A2
A3
A4
A5
A6
50000
0
-50000
ず,如何に学習エージェントが適切な電力売買を行って
も電力ロスや停電を防ぐことは出来なくなる.ai にずれ
が存在し,発電消費パターンが非同期であることはネッ
トワーク化により平準化が行える前提条件となる.
-100000
本実験では 6 つのミニマル・クラスターにより構成
されるローカル・クラスターを考える.各ミニマル・ク
ラスターの発電・消費の特性は (a0 , a1 , a2 , a3 , a4 , a5 ) =
(0, 2, 4, 6, 8, 10) とし,発電消費パターンに十分な非同期
生を持つように設定した.この条件下ではローカル・ク
ラスター全体としては全時刻で電力の流入と流出はバ
ランスするため,適切に電力融通が行われれば電力ロス
と停電を無くす事が出来る.
0
5.2
単一エージェント学習環境での実験
まず,提案手法がエージェント1体のみが学習する環
境下で正常に作動する事を確認するためにエージェント
A1 のみを学習させた.全てのエージェントが学習しな
い場合の各エージェントの獲得報酬の遷移と,エージェ
ント A1 のみが学習した場合の各エージェントの獲得報
酬の遷移を図 5 に示す.図には1日の獲得報酬の各週毎
の平均を示している.学習を通して A1 が停電,電力ロ
スによる無駄を避けつつ有利な取引を行う事で,より多
くの報酬を得ている事が分かる.次に,学習初期と学習
終期でのエージェント A1 の蓄電量の時間変化を図 6 に
比較する.初期には S 1max = 100 にしばしば達する事で
電力ロスを生じていたのが,適切な取引戦略を得ること
により,過不足無く蓄電量をコントロール出来るように
なっている事がわかる.これより,本論文で示した定式
化により強化学習を通じて取引戦略を学習可能なエー
ジェントが構築できている事がわかる.
また,学習エージェントの存在しない場合と,エー
ジェント A1 のみが学習している場合での各ミニマル・
クラスターの所持金の変化を図 7 に示す.エージェント
0
100000
1000 2000 3000 4000
A1
A2
A3
A4
A5
A6
50000
-50000
-100000
0
1000 2000 3000 4000
図 7: 各ミニマル・クラスターの所持金の変化,
(上)学
習エージェントが存在しない場合,
(下)エージェント
A1 のみが学習した場合.
A1 が有利な取引を行う事で,電力の無駄をなくすのみ
ならず,自らの所持金をも増大させている事がわかる.
5.3 多数エージェントの同時学習環境での実験
次に,より多くのエージェントが同時に学習する条
件下で実験を行った.1体以上のエージェントが同時
に学習する場合は,しばしば部分観測や同時学習の問
題が発生する為,学習が正常に進行しない可能性があ
る.しかし,前述の理由により方策勾配法,特に Natural
Actor-Critic はこれらの問題に対して頑健性があると考
えられ,多数のエージェントが同時に学習した場合でも
強化学習が適切に進行する事が期待される.実験を行っ
た結果,多くの場合で問題なく,学習を行ったエージェ
ントは獲得報酬を増大させる事が出来た.図 8 に6体
のエージェントが学習を行った場合の各エージェントの
獲得報酬の変化を示す.ここでは6体ものエージェント
が同時学習を行っているにも関わらず,学習はほぼ安定
的に進行している.これより Natural Actor-Critic はこの
ようなローカルな市場取引というマルチエージェント強
100000
0
-100000
-200000
-300000
-400000
-500000
400
A1
A2
A3
A4
A5
A6
0
10
20
30
40
ss 300
o
L
la 200
t
o
T 100
50
0
0
図 8: 全エージェントが同時に学習した場合の各エージェ
ントの獲得報酬変化
100000
A1
A2
A3
A4
A5
A6
50000
0
-50000
1
2
3
4
5
6
Number of learning agents
図 10: 学習エージェント数毎のローカル・クラスター全
体における学習後の電力ロス(横軸は 6 エージェント
中で学習したエージェントの数,縦軸が 1 日間の電力
ロス)
-100000
0
1000 2000 3000 4000
図 9: 全エージェントが学習した場合の各ミニマル・ク
ラスターの所持金の変化
化学習系において有効な手法であることが示されたと
言える.
本タスクは相互的な取引環境で競合的に学習を行って
居るために,一見全員の報酬が同時に向上する事のな
いゼロサム・ゲームとなるように感じられるが,実際に
は全エージェントが獲得報酬を増大させている.これは
各エージェントが得る報酬の内,ゼロサムであるのは金
銭取引に関わる部分のみであり,電力ロスと停電に関わ
るペナルティについてはゼロサムでは無いためである.
6体のエージェントが学習した場合の各ミニマル・クラ
スターの所持金の変化を図 9 に示す.学習エージェント
が存在しない場合と比べ金額の配分は変化しているが,
金銭的報酬についてはゼロサム・ゲームで有る故に全
エージェントを通じて増加しているということは無いこ
とが分かる.しかしながら,系の内1体づつエージェン
トを学習ありに切り替えて行った時には金銭的収益が増
加する事が観察された.これは,実際に適応的取引エー
ジェントを組み込んだ電力ルータを市場投入する際に,
ミニマル・クラスター所有者が電力ルータの導入を検討
するインセンティブになると考えられ重要な点となる.
ル・クラスターの電力ロスは低下し,その結果,ローカ
ル・クラスター全体としても電力ロスが低減されていっ
ている事がわかる.5 体が学習した場合と 6 体が学習し
た場合で 6 体の時の方がロスが増大しているように見
えるが有意差はなかった.
これより,各ミニマル・クラスターが電力ロスを低減
しようとしながら,自らの利得が最大化されるように取
引を行うことで,系全体としても電力ロスを低減するこ
とが出来た事が分かる.
この系のようなマルチエージェント課題ではシング
ルエージェント用に開発された強化学習手法は必ずし
もよい学習結果を得る事は出来ないと考えられている.
これに対し,Natural-Actor Critic が頑健であった理由と
しては,方策を直接探索している点,及び,LSTD によ
り勾配方向を決定する為,バッチ的な更新にならざるを
得ず,学習過程で各エージェントが断続的な定常状態を
繰り替えす為に非同期な更新が暗黙的に実現されてい
るために同時学習問題を回避できているなどの点が考
えられる.しかし,解析的な視点から保証が得られてい
る訳ではないので,実際の系に適用する場合にはその動
作保証についての検討が必要である.また,本論文では
割愛するが,方策勾配法は局所探索手法であるため,方
策の初期値によって学習が進行しない場合が存在した.
6
結論と展望
本論文では,再生可能エネルギーの利用を目的とし
次に発電した電力のロスに着目して比較を行った. た自律分散型の次世代電力ネットワーク構想 ECO ネッ
エージェント A1 ∼ Ak (k は横軸の値) が学習した際の トを対象とし,各ミニマル・クラスター間で電力を自動
ローカル・クラスター全体での 1 日の電力ロス和の最終 売買するための枠組みについて議論した.その為に,ノ
100 日間平均値を条件毎に図 10 に示す.横軸には何体 ルドプールに倣った電力売買を決済する市場を設計し,
のエージェントが学習しているかを示しており,縦軸は ローカル・クラスター内に於いて,各ミニマル・クラス
1日当たりの平均電力ロスを標準偏差と共に示してい ターを代表するエージェントが自らの取引条件を提示
る.これから,各エージェントが学習を行う事でミニマ することにより,自動的に売買を行う事の出来るプロセ
スをモデル化した.また,その取引条件を方策勾配法に
より学習する枠組みについて提案し,具体的には自然方
策勾配法の一種である Natural Actor-Critic を用いて電
力自動取引エージェントを構築した.また,仮想的な周
期的発電・消費パターンの下でシミュレーション実験を
行い,マルチエージェント環境下であっても学習が進行
し,学習エージェントを備えたミニマル・クラスターに
おける電力ロスの削減と,収益が実現される事が示され
た.さらにそれを通してローカル・クラスター全体とし
ても電力ロスの低減を図れることが示された.
なく,今後,普及が検討される自律分散型の地産地消型
電力ネットワークであり,実際の系と今回のモデル化の
差異を明確に示す事は困難である.ゆえに,その将来的
な仕様の決定にも参画しつつ,具体的な制約を今後のモ
デル化に継続的にフィードバックする事が重要だと考え
ている.
エネルギー問題や環境問題は現代社会が抱える喫緊
の課題である.それを解決する未来のシステムを支え
る技術の一つに強化学習のような知能情報処理技術が
組み込まれることは意義深いことであり,知能情報シス
しかしながら,本論文では扱いきれなかった論点も多 テムにおける新たなマーケットを形成する潜在性を有
くある.本研究の設定では系全体としては発電・消費を している.米国で進むスマートグリッドの考え方には,
外生変数として捉え,余剰・不足に対する変動可能な発 このような知能情報技術との融合は現在のところ含ま
電4 や外部からの電力購買5 を考えなかった.この点につ れておらず,自律分散型の直流地域配電網である ECO
いて盛り込んで行くことも今後の課題であると言える. ネットとスマートグリッドの考え方を融合させ,さらに
また,各ミニマル・クラスターの住人も,これまでの一 知能情報技術を適用する事で構成される,自律分散型直
方的な消費者の立場から生産消費者へと立場を変え,よ 流スマートグリッドとでも呼ぶべき電力ネットワークの
り明示的に電力利用に基づく収支を認識することで,生 構築は大きな可能性を秘めていると考えられる.また,
活行動パターンを変化させる事も考えられる.これは, そのシステムの作動は計算機実験を通して構成的に検
数理モデルの中では金銭収支 mi が,消費パターン Ci に 証可能であり,市場の仕組みや補助金,規制などを含め
人間の学習を通して変化を与える事として捉えられる. た制度設計の視点からも重要性を持つ.本研究における
つまり,本論文で扱った学習より一段上位レベルの学習 モデル化を基礎としながら,より発展させることが重要
が,当該システムを人間を含んだ系 (Human in the Loop であると考える.
System) として捉えた際には重要となる.実際,環境問 謝辞
題・エネルギー問題を直視した際には,利用の効率化以
本研究は 科学研究費補助金 基盤研究 (B)「不便の効
上に,消費の低減は本質的な解決となり,その際には人 用を活用したシステム論の展開」21360191 の 一部支援
間の活動自体を系に含んだ議論はシステム研究の上で を受けた.また,当研究のきっかけを戴いた,NPO法
不可避となる.
人KGCの柴田有三氏,前京都市副市長の山崎一樹氏,
また,本論文の目的は強化学習の定式化が可能なよ
うにローカル・クラスターにおける電力売買をモデル化
し,有効な取引戦略の学習手法を提案する事であったた
め,実際の電力システムの動特性は殆ど考慮せず簡略化
して取り扱った.しかしながら,蓄電池における蓄電ロ
スや時間特性,また取引時の送電ロスなどを考慮するこ
とは現実の系への適用時には本質的であり無視する事
は出来ない.さらに,今回の系は発電消費の結果として
の流入量 Di を周期性の正弦波で近似できるものとして
捉えた,しかしながら,現実の消費・発電パターンはそ
のように整った形をしていない.これらの実観測データ
を用い検討を行う事が今後の課題である.また,実際に
系が強化学習の対象となる MDP として捉えられる為に
は,エージェントの状態変数として天候や住人の行動計
画など,どこまでを変数として含めるか,また含めるよ
うに設計するかが実用上は重要となっている.さらに,
電力融通の問題を考えた際には,実際の送電にかかる時
間や,その方式についての議論も重要な要素となってく
る.本論で検討したのは,既存の電力ネットワークでは
4 電力不足に対して各世帯でエンジンを回して発電する事や,エコ
キュートなど.
5 主には大規模な電力会社からの系統電力網を通した買電.
及び多くの助言を下さった松本吉彦氏,また,自律分散
型直流スマートグリッド i-Rene プロジェクトの関係諸
氏に感謝の意を表す.
参考文献
[1] 八田達夫. 電力競争市場の基本構造. RIETI:独立行
政法人 経済産業研究所,2004 年 03 月,No.04-J-029.
[2] 経済産業省 資源エネルギー庁エネルギー戦略推進
室. エネルギー基本計画, 2007.
[3] 松本吉彦, 柳父悟. 新世代に向けた電力システム構
造のビジョン. 電気学会論文誌B(電力・エネルギー
部門誌), Vol. 123, No. 12, pp. 1436–1442, 2003.
[4] 山家公雄. オバマのグリーン・ニューディール. 日
本経済新聞出版社, 4 2009.
[5] J. Peters, S. Vijayakumar, and S. Schaal. Reinforcement learning for humanoid robotics. In Proceedings
of the Third IEEE-RAS International Conference on
Humanoid Robots, 2003.
[6] 電力政策研究会. 図説電力の小売自由化. 電力新報
社, 2000.
[7] 桑原鉄也. 電力ビジネスの新潮流. エネルギーフォー
ラム, 2008.
[8] ヘルマンシェーア. ソーラー地球経済. 岩波書店,
2001.
[9] 和泉潔. 人工市場 (相互作用科学シリーズ). 森北出
版, 2003.
[10] ドン・タプスコット/アンソニー・D・ウィリアム
ズ. ウィキノミクス マスコラボレーションによる
開発・生産の世紀へ. 日経 BP 社, 2007.
[11] 喜多一, 出口弘, 寺野隆雄. U-MART: 経済学と工学
をエージェントが結ぶ. 第 10 回マルチ・エージェン
トと協調計算ワークショップ (MACC2001)(2001.11.
16-17), 2001.
[12] 佐藤浩, 久保正男, 福本力也, 廣岡康雄, 生天目章.
人工市場のシステム構造. 人工知能学会誌, Vol. 15,
No. 6, pp. 974–981, 2000.
[13] 吉本昌弘, 藤森成一, 佐々木将士. AHP を導入し
た Profit Sharing エージェントによる株式売買に関
する研究 (セッション 2). 情報処理学会研究報告.
MPS, 数理モデル化と問題解決研究報告, Vol. 2006,
No. 56, pp. 37–40, 2006.
[14] 松井藤五郎. カブロボへの招待: 人工知能を用い
た株式取引. 人工知能学会誌, Vol. 22, No. 4, pp.
540–547, 2007.
[15] G.R. Gajjar, S.A. Khaparde, P. Nagaraju, and S.A. Soman. Application of actor-critic learning algorithm
for optimal bidding problem of a Genco. Power Systems, IEEE Transactions on, Vol. 18, No. 1, pp. 11–
18, 2003.
[16] 下村貴裕, 最所祐一, 藤井康正, 山地憲治. マルチ
エージェント モデル を 用 いた 電力 市場 におけ
る 価格 形成過程 の 分析. 電気 学会 論文 誌 B (電
力・エネルギー 部門 誌), Vol. 124, No. 2, pp. 281–
290, 2004.
[17] V. Nanduri and T.K. Das. A reinforcement learning
model to assess market power under auction-based
energy pricing. IEEE Transactions on Power Systems,
Vol. 22, No. 1, pp. 85–95, 2007.
[18] 荒井幸代. マルチエージェント強化学習: 実用化に
向けての課題・理論・諸技術との融合 (¡ 特集¿「マ
ルチエージェント技術における新しい可能性」). 人
工知能学会誌, Vol. 16, No. 4, pp. 476–481, 2001.
[19] 宮崎和光, 荒井幸代, 小林重信. Profit Sharing を用
いたマルチエージェント強化学習における報酬配
分の理論的考察. 人工知能学会誌, Vol. 14, No. 6,
pp. 1156–1164, 1999.
[20] 田渕一真, 谷口忠大, 堀口由貴男, 中西弘明, 椹木哲
夫. マルチエージェント強化学習における報酬分割
による分業形成機構. 第 35 回知能システムシンポ
ジウム, pp. 37–42, 2008.
[21] 木村元, 小林重信. Actor に適正度の履歴を用いた
Actor-Critic アルゴリズム: 不完全な Value-Function
のもとでの強化学習. 人工知能学会誌, Vol. 15, No. 2,
pp. 267–275, 2000.
[22] R.S. Sutton, D. McAllester, S. Singh, and Y. Mansour.
Policy gradient methods for reinforcement learning
with function approximation. Vol. 12, pp. 1057–1063,
2000.
[23] S. Kakade. A natural policy gradient. Advances in
neural information processing systems, Vol. 2, pp.
1531–1538, 2002.
[24] J. Peters and S. Schaal. Natural actor-critic. Neurocomputing, Vol. 71, No. 7-9, pp. 1180–1190, 2008.
[25] R.S. Sutton, A.G. Barto, 三上貞芳, 皆川雅章共. 強
化学習. 森北出版, 東京, 2000.
[26] L.C. Baird. Advantage updating. 1993.
[27] S.J. Bradtke and A.G. Barto. Linear least-squares algorithms for temporal difference learning. Machine
Learning, Vol. 22, No. 1, pp. 33–57, 1996.
[28] J.A. Boyan. Technical update: Least-squares temporal difference learning. Machine Learning, Vol. 49,
No. 2, pp. 233–246, 2002.
[29] 木村元. 適性度の履歴を用いた自然勾配 actor-critic
法. 第 19 回自律分散システムシンポジウム, pp.
67–72, 2007.
谷口忠大(正会員)
1978 年 6 月 24 日生.2006 年京都大学工学研究科博士課程修了.2005 年より日本学術振
興会特別研究員(DC2),2006 年より同(PD).2007 年より京都大学情報学研究科にて(PD)
再任.2008 年より現在,個体と組織に於ける記号過程の計算論的な理解や共生社会に向け
た知能情報学技術の応用研究にについての研究に従事.京都大学博士(工学).計測自動制
御学会学術奨励賞,システム制御情報学会学会賞奨励賞,論文賞,砂原賞など受賞.計測
自動制御学会,日本人工知能学会,システム制御情報学会,日本神経回路学会などの会員.
高木圭太(非会員)
1984 年 8 月 29 日生.2009 年立命館大情報理工学部知能情報学科卒業.マルチエージェン
ト系における学習についての研究に従事.2009 年より TIS 株式会社にてシステムコンサル
タントとして勤務.現在に至る.SCM のシステムコンサルティング事業に関わる.
榊原一紀(非会員)
1999 年神戸大学工学部電気電子工学科卒業,2004 年神戸大学院自然科学研究科博士後期課
程修了,同年立命館大学理工学部助手,2005 年同大学情報理工学部知能情報学科助手を経
て,2008 年同講師,現在に至る.博士(工学).スケジューリング問題のモデル化と解法,
進化・学習アルゴリズムの理論と応用に関する研究などに従事.電気学会,システム制御
情報学会,スケジューリング学会などの会員.
西川郁子(非会員)
1984 年京都大学理学部物理学科卒業,1990 年京都大学大学院理学研究科物理学第一専攻博
士後期課程単位取得退学.同年神戸大学大学院自然科学研究科助手,1993 年立命館大学理
工学部情報工学科助手,1995 年同情報学科助教授,2003 年同教授を経て,2004 年同情報
理工学部知能情報学科教授,現在に至る.博士(理学).知能システムの研究に従事.シス
テム制御情報学会,計測自動制御学会,日本神経回路学会,日本物理学会,電子情報通信
学会などの会員.
ダウンロード

地産地消型電力ネットワークの為のNatural Actor