猫と宇宙と音楽と

宇宙開発・ビジネス発展の礎。我々は過去を踏み台に今を生き、また未来の礎として今を生きる。

Meetup in ARK Hills #4「宇宙ビジネスについて考える」(2018.9.25)に参加してきた

こんにちは。wakuphasです。

 

 

本日は、Meetup in ARK Hills@アーク森ビルに参加してきました。

内容としては、実際に最前線で活躍されているプレイヤー側と投資する側、両者の目線で宇宙ビジネスについて考えるというものでした。

Meetup in ARK Hills #4「宇宙ビジネスについて考える」 | アークヒルズ - ARK Hills

 

 

 

◇登壇者

石田 真康 氏
一般社団法人SPACETIDE 代表理事
A.T. カーニー株式会社 プリンシパル

木村 亮介 氏
IF Lifetime Ventures co-Founder
インキュベイトファンド アソシエイト

永崎 将利 氏
Space BD株式会社 代表取締役社長

岡島 礼奈 氏
株式会社ALE 代表取締役

 

 

◇宇宙ベンチャーと投資

# 石田さん

はじめにSPACETIDE代表の石田 真康さんから日本の宇宙ビジネスの歴史と現状についてお話がありました。

現在全世界では下記のように宇宙ビジネスの潮流がきています。

・宇宙産業の市場規模は35兆円
1000社以上の宇宙ベンチャー
・投資総額1.2兆円
30ヶ国以上が参入

 

またその市場セグメントは地上・軌道・深宇宙という空間軸で分けると現在大きく6つ。

f:id:wakuphas:20180926004240j:plain

6つの市場セグメント(SPACETIDE石田さん)

日本国内でもこの全セグメントに満遍なく、20社程度の宇宙ベンチャーが存在しています。

下記画像は国内の代表的な宇宙ベンチャーの設立年を示したもので、2005年のQPS研究所がNewSpaceの始まりとされています。NewSpaceとは、従来の政府主導の宇宙開発組織とは異なり、異業種からの参入やベンチャー企業など民間主導の新興勢力のことです。

f:id:wakuphas:20180926004650j:plain

国内宇宙ベンチャーの設立年

ちなみにアメリカでは、ITバブル絶頂期(2000年)に出てきた宇宙ベンチャーが多いそうです。例えばBLUE ORIGINやSPACE Xなどはその典型ですね。政府の予算規模の多額の資金を利益の数%でまかなえるような民間企業発のベンチャーが中心となって宇宙開発を進めてきました。その意味で日本で資金がほぼゼロベースで世界で戦っていくためにはかなり知恵を絞る必要がありそうです。

f:id:wakuphas:20180926010456j:plain

新たな宇宙産業コミュニティ

ただし、日本に今ある20社程度の宇宙ベンチャーは一つ一つがいい意味で尖っており、世界でも割と名前が通じるそうです。その証拠に国内宇宙ベンチャーへ投資する企業の数はアメリカに次いで世界第2位です。さらに面白いのは出資者がいわゆるVCではなく、あまり宇宙に関わってこなかった普通の大手企業が多いという点です。異業種企業が宇宙を通して連携することができればこれは日本の強みに変わるでしょう。

 

ちなみにこうした宇宙ビジネス系のイベントに数多く登壇されている石田さん情報によると、現在宇宙ビジネスに興味を持ってイベントに出席している方の割合は以下のようになっているそうです。

事業開発関係の方と同じくらいエンジニアや研究者の方がいて、同時に投資家の方がいて、もはや出席者同士でビジネスを起こせる雰囲気はありますよね笑。

f:id:wakuphas:20180926011811j:plain

 

 

# 木村さん

続いて、これまでIncubate FundとしてIT企業や宇宙ベンチャーに投資をしてきた木村さんと、SPACETIDEの石田さんの対談がありました。箇条書き形式でいくつか紹介します。

 

(1)なぜ宇宙業界に投資しようと思ったのか?

・IT産業への投資で得たお金の新たな投資先を探していた
・ビジョンは途方も無いが、優秀な人が多い、集まっている
・ある種無法地帯なのでビジネスモデルは考えようでいくらでもある

 

(2)宇宙業界の起業家は以下の3つに分類される(笑)

・宇宙が純粋に好きな人
・既存を破壊できる業界に興味がある人
・人類課題を自分が解決しなければならないと勘違いする?異端者(Elon Musk)
 

(3)宇宙開発の専門技術などは専門家でないと分からない気もするが、何を基準に投資判断する?

・技術的に可能であることを論文や研究データを元にすぐに根拠を明示できるか
・人を集め、投資した分しっかりプロジェクトを推進できる力があるか
・人柄

 

(4)ispace社は桁違いの資金(101.5億円)を調達したがその理由は?

・誰もやってなくて一見突拍子もないけど技術的に可能であること
・多くの人々に応援されやすいこと(月探査という夢のあるミッション)
宇宙ビジネスの最初の広告塔になり得ること(故に今後同じ金額を投資することは難しい)

 

ちなみに感覚的にはITベンチャーと宇宙ベンチャーへの投資額は基本1桁違うらしいです。

 

 

◇株式会社Space BD

実際に宇宙ビジネスの第一線で働いているSpace BD代表の永崎 将利さんからPresentaionがありました。永崎さんは元々は三井物産で働いており、その経験を活かし、日本で初めての宇宙商社であるSpace BDを2017年に立ち上げました。

space-bd.com

Space BDといえば2018年5月に、JAXAの「きぼう」からの超小型衛星放出サービスの事業者に選定されたことはまだ耳に新しいですよね。

一応説明しておくと、JAXAでは「きぼう利用戦略」(平成29年8月第2版制定)に基づき、ISSの「きぼう」の利用事業について、民間等による事業自立化(民間への開放)を目指しており、今回、その第一弾として、超小型衛星放出事業の事業者として、Space BD三井物産の2社を選定しています。

ここで、「あれ、永崎さんは元々三井物産だから、協力しているのかな....?」とか思ったりしていたのですが、実は協力体制ではなくむしろ競合関係だったそうです笑。

 

Space BDとは:

さて、そんなSpace BDが担う役割と背景は、以下のようになっています。

 

背景:

「衛星データ活用や通信にはじまり、宇宙旅行、資源開発、移住と、
可能性が広がる宇宙ですが、その第一歩は、宇宙へのアクセス

            ↓

解決:
「私たちはまずこの領域において、ロケットと小型・超小型衛星のマッチング機能に加え、打上げに関わるインターフェース調整、安全審査、輸出入、契約といった必要業務のアウトソーシング機能を備えた一貫型打上げサービス(ISS衛星放出含む)を提供。」

            ↓
ロケット・衛星事業者の負荷を軽減し、開発に特化できる環境づくりに貢献してまいります。」

 

 

つまり今後増えるであろう小型衛星の需要に対して打ち上げ時の手間、コスト、時間の煩わしさを解消するというものです。

衛星打ち上げ手段は以下の3つがありますが、Space BDが目指すのはまずはISSからの放出だそうです:


・ロケット相乗り
ISS(きぼう)からの放出
・小型ロケット

f:id:wakuphas:20180926120253j:plain

Space BDが狙う商社としての立ち位置(SpaceBD 永崎さん)


宇宙業界は食い合うパイがそもそも細い!

永崎さんの言葉で印象的だったのが、そもそも細いピザを取り合う前に、みんなで協力してまずはピザを大きくする必要があるよね、というものです。

自分は他社とここが違う、こんな優れた技術をもっている、というのももちろん大事ですが、まずは一歩俯瞰して業界全体を見渡し、共通の根本課題を解決することが求められているのかもしれません。

 

 

◇株式会社ALE

続いて、ALE代表の岡島 礼奈さんからPresentationがありました。

余談ですが、ALEの岡島さんを始め、SPACETIDEの石田さん、ispaceの袴田さん、アクセルスペースの中村さんは全員1979年生まれだそうで、宇宙ビジネスを牽引している方が同じ年生まれというのはなにやら非常に縁がありますね〜。

 

ALEとは:

ALEは2011年に設立した、世界初の人工流れ星事業「Sky Canvasを行う企業です。

一見エンタメサービス重視のように見えますが、実は科学的意義も大きく、4大学と学術的な連携を取っています。岡島さんは、民間がサイエンスを盛り上げていける未来を目標にしているとのこと。

star-ale.com

f:id:wakuphas:20180926150023j:plain

人口流れ星の原理(ALE 岡島さん)

 

Sky Canvas

(1)エンターテイメント

「特殊な素材の粒を軌道上の人工衛星から宇宙空間に放出して大気圏に突入させることで、流れ星を人工的に再現することを目指しています。粒が大気圏で燃焼する様子は地上からは流れ星のように見え、その輝きは最大で200km圏内で同時に楽しむことができきます。」

 

(2)科学の発展

「自然界の隕石や流れ星のメカニズムを解明。」

「高層大気の挙動を観測することで、物理学の発展に寄与。」

「人工物を、大気圏に突入させて安全に廃棄する際の予測に用いるデータを収集。」

 

世界初の技術

秒速8kmという猛スピードで地球を回る人工衛星から、地球上の狙った場所に正確に流れ星を流すためには大気との相互作用計算や流星源の速度制御など、とても高度な技術を要します。ALEでは日本ならではの精密な技術を駆使し、放出精度を誤差約0.3%まで高めることに成功しているそうです。

f:id:wakuphas:20180926141231j:plain

流星源の放出精度は誤差約0.3%

 

スケジュール

現在、既に2号機を開発中で、1号機はJAXA革新的衛星技術実証プログラムの候補に選定されています。うまくいけば2018年度中にイプシロンロケットによって打ち上げられるそうです。

ただし、このイプシロンロケットによって投入される軌道高度は500kmなのですが、国際的にISSの高度(400km)より上空では実験しないでくれとお願いされたようで、約1.5年ほどかけて高度を400km以下まで下げ、実際に実証されるのは2020年とのこと。

shootingstarchallenge.com

Official Partnerは、JALファミリーマート。実施場所は瀬戸内海周辺(晴れが多い)だそう。

 

 

◇まとめ

民間の宇宙ビジネス交流の場作りの第一人者である石田さん、宇宙ベンチャーに対して大規模な投資経験のある木村さん、プレイヤーとして最前線で活躍されている永崎さんと岡島さん、こうして並べてみるととてつもなく豪華な面々が集ったカンファレンスでした。

どの立場から見ても、宇宙ビジネスの参入障壁はやはり相当高いそうで、これまで閉じた産業であったが故に、技術・人材の調達に苦労しているようでした。

また現状民間できちんとサイクルを回して利益を継続的に出せている企業はほぼいないという事実を見ても、投資を得るための事業計画書を書くのは相当大変らしいです。ファイナンス面での体力がある程度ないと厳しいという現実もあるようです。

 

ただ、永崎さんいわく、どんな小さなアイディアでもリスクを恐れてやらないのではなく、今は少しでも可能性のあるタネはできるだけ撒いて、とりあえずサイクルを回してみることが大切とのこと。まずは挑戦者人口が増えるような環境・仕組みを作っていくことが求められている気がしました。

 

 

 

 

Google Colab上でdarknet(YOLO)を使って物体を数える【画像認識】

f:id:wakuphas:20180915105127p:plain

 

こんにちは。wakuphasです。

 

 

ここ1週間ほどディープラーニングを使った画像検出・分類について色々と試していたのでその覚書を投下しておきます。

最終的に、YOLOという物体検出アルゴリズムを用いて、自前の画像データを認識させるところまでいきます。

MacのCPUで学習すると無限に時間がかかるので以下のようなやや面倒なプロセスとなっています。

 

Macで学習寸前までデータを準備して

   ↓

一度そのデータを丸ごとGoogle ColaboratoryにアップロードしてGPUで学習

   ↓

学習結果をまたMacに戻してCPUで画像認識させるというものになっています。

 

 

 

※全ての情報は2018年9月現在のものです。

 

 

◇目次 

 

 

 

YOLO・darknet・darkflowとは 

YOLO:

You Only Look Onceの略語。

速度・精度、共にトップクラスの物体検出アルゴリズムの一つ(論文1, 論文2)。

v2, v3が主に使われている。

 

darknet:

C言語とCUDAで書かれたオープンソースニューラルネットフレームワーク

手軽にインストールでき、CPUとGPUで使える。

webサイト

 

darkflow:

darknetをtensorflow環境で動作するようにしたパッケージ。

 

 

Google Colaboratoryとは

無料でGPUを使用できるPython実行環境。

基本的に機械学習に必要なパッケージは全て揃っているので環境構築がほぼ不要。

Ubuntuマシンとして普通にapt-getなどでパッケージを追加することも可能。

Jupyter Notebookから派生しているので使いやすい。

www.codexa.net

qiita.com

 

 

開発環境

Mac OS High Sierra

anaconda 3-5.0.0

Python 3.6.2

・Tensorflow 1.5.0

 + Google Colaboratory

 

 

1. データの準備(Mac上)

1. darknetをMacにインストール

本家に従ってdarknetをgitでダウンロード。

$ git clone https://github.com/pjreddie/darknet.git

$ cd darknet
$ emacs Makefile

Mac上ではCPUを使うので、Makefileの上の方でGPU=0になっていることを確認して保存。

$ make 

テスト用に既にtrainされたweightsファイルをダウンロードする。

今回使用するのはyolov2の方だが、一応yolov3のリンクも貼っておく。

https://pjreddie.com/media/files/yolov2.weights

https://pjreddie.com/media/files/yolov3.weights

ダウンロードしたらbinフォルダにyolov2.weightsを移動する。

$ mkdir bin
$ mv yolov.weights bin/

./darknetコマンドが動作するかテスト画像で確認。

./darknet detect cfg/yolov2.cfg bin/yolov2.weights data/dog.jpg

同じディレクトリ内に保存されたprediction.jpgを開いて物体が検出・分類されていることを確認する。 

 

  

2. 認識させたい物体が写っている画像を複数枚用意

Google画像検索なりで好きな画像をたくさんとってくる。

私の場合は、飛行機を検出したかったので、airportで検索して13枚ダウンロードした(全て.jpg形式で統一させる;JPEGと混同しない)。

images_airport.zip - Google ドライブ

f:id:wakuphas:20180915115642j:plain

 

3. 画像の水増し

13枚だけでも学習はできるが、より高い精度で認識を行うためには画像を回転させたり反転させたりと水増ししてやることで、汎用性の高い学習モデルを作成することが好ましい。

今回は以下を参考にこのスクリプトで水増しデータを作成した。

TensorFlow + Kerasでサルを分類できるのか試してみる(2) ~ 学習データを増やして精度を上げる

 

まず先ほどの画像を darknet/data/increase/airplane/ に全て移動する。

(ただし、increaseとairplaneフォルダは自分で作成)

increase/ に increase_img.py をコピーし実行する。

$ python increase_img.py
...
input files = 13
output files = 130  # 32行目:range(10)で元の10倍の枚数に水増し

 increase/airplane/output/ に様々な変換を受けた画像が130枚生成される。

 

 

 

 

4. 画像から物体の位置とラベルを出力

画像を用意したら、その答えも用意する必要がある。

 

入力:生画像

出力:対象物体のラベル("airplane")と位置(topleft xy座標, bottomright xy座標)

 

この出力.txtを手作業で作成してもいいが、BBox-Label-Toolという感覚的に座標を出力できるアイテムがあるのでそれを用いる。

$ cd data
$ git clone https://github.com/puzzledqs/BBox-Label-Tool.git

クローンしたディレクトリ内にあるImages/001の中に、先ほど用意した increase/airplane/output/**.jpg を全て入れる。ツールによって生成された座標のテキストデータは、Labels/001の中に生成される。
ここで、デフォルトでは、画像の拡張子が大文字の『JPEG』でないとこのツールが認識してくれないので、『jpg』で認識するように、main.pyの中に記載されている『JPEG』をすべて『jpg』に置換する(3箇所)。

 

main.pyを実行する。デフォルトではpython2系で実行する必要がある。

Python3で動かすにはこちらを参照。

$ python2 main.py 

Imagedirに001と入力し、ロード。

f:id:wakuphas:20180917004615p:plain

マウスでバウンディングボックスを作成し、「next」ボタンで保存次の画像を表示させていく。終了するとLabels/001に****.txtでラベルが生成されている。

 

YOLO形式へ変換:

続いて、生成したラベルをYOLOの形式に変換する必要があるので、convert.py という変換ツールを使用する。

 

darknet/data/convert/フォルダを作成しそこに convert.py を保存。

$ mkdir convert

さらに convert/ に以下のようになるようにフォルダ作成&ファイル移動(画像.jpgとBBoxで生成したラベル.txt)を行う。

ディレクトリ配置やフォルダ名はconvert.pyの中身を書き換えることで自由にいじれる。

 

************

darknet/data/convert/

  |- images

    |- stopsign

      |- airport00.jpg

      |- airport01.jpg

      …

  |- labels

    |- stopsign

    |- stopsign_original

      |- airport00.txt

      |- airport01.txt

      …

  |- convert.py

************

 

 convert.pyを実行する。

$ python convert.py

labels/stopsign/ にYOLO用に形式が変換されたファイルが出力されていることを確認。

YOLO形式は次の5列で、座標系が規格化されている。

ラベル番号は今回は一つしか使っていないので 0 が airplane に対応する。

 

  ラベル番号 x_min x_max y_min y_max

 

出力された labels/stopsign/airplane**.txt を darknet/data/labels/ にコピーする。

$ cp convert/labels/stopsign/airplane**.txt labels/

$ pwd
(yourpath)/darknet/data
$ cp convert/labels/stopsign/airplane**.txt labels/

darknet/data/labels/ フォルダ内には元々 32_0.png みたいな画像がたくさんあるが、これはそのままにしておかないと後々エラーが出る。

 

さらに 画像.jpg を darknet/data/images/ にコピーする。

$ cp convert/images/stopsign/airplane**.jpg images/

最終的に以下のような配置となる。複数のフォルダにimagesとlabelsができて気持ち悪いが、とりあえずこのまま進む。ちなみにdata/にデフォルトであるファイルはlabelsフォルダ以外消しても今回はうまくいく。

 

************

darknet/data/

  |- images

    |- airport00.jpg

    |- airport01.jpg

    …

  |- labels

    |- airport00.txt

    |- airport01.txt

    …

    |- 32_0.png

    ...

************

 

 

5. trainデータとtestデータの切り分け

 /darknet/data/ に process.py を保存する。
How to train YOLOv2 to detect custom object 参考)

 

process.pyを実行すると percentage_test = 20 % に従ってランダムにtrainデータとtestデータが分けられ、それらのパスが darknet/data/images/ に test.txt と train.txt というテキストデータで出力される。

$ python process.py

 

 

6. 学習パラメータ設定

まず以下2つを準備:

・darknet/data/images/ にクラスリスト obj.names を作成する。中身は今回は airplane と1行だけ記載して保存。

・さらに darknet/data/ に names.list という名前のファイルを作成。中身は obj.names と同じく airplane と1行だけ記載して保存。

 

パラメータ設定:

クラス数やデータの所在等を指定する。

$ emacs cfg/obj.data

以下を記載して保存。

classes=1 
train = data/images/train.txt 
valid = data/images/test.txt 
labels = data/images/obj.names 
backup = backup/

classes #クラス数。今回は1種類なので1

train #訓練用の画像リスト 

valid #テスト用の画像リスト

labels #クラスリスト

backup #学習した重みが保存される場所

 

 

次にモデルを編集する。使いたいモデルを元に編集していく。今回はyolov2-voc.cfg。

このとき後に使用する darkflow は現在yolov3に対応していない?ためyolov2を採用。

$ cd darknet/cfg/
$ cp yolov2-voc.cfg yolo-obj.data

$ emacs yolo-obj.data

以下を編集して保存。

3行目:batch=64 にする。学習ステップごとに使う画像の枚数。コメントアウトして6行目をオンにするでもいい。
4行目:subdivisions=8 にする。バッチが8で除算される。コメントアウトして7行目をオンにするでもいい。
244行目:classes=1 にする。クラス数=airplane一つ。
237行目:filters=30 にする。filters=(classes + coords + 1) * 5で定義。

 

 

いざ、学習:

はい、これでもういつでも学習できます。

初めて学習する際、適当な重みを初期値として読み込むと収束しやすいとのことなので

以下を darknet/ に保存する。

 

・yolov2 用の初期値ファイル。

https://pjreddie.com/media/files/darknet19_448.conv.23

・yolov3 用の初期値ファイル

https://pjreddie.com/media/files/darknet53.conv.74

 

試しに以下を実行すると

$ ./darknet detector train cfg/obj.data cfg/yolo-obj.cfg darknet19_448.conv.23

f:id:wakuphas:20180915182021p:plain

ズラーとCNNの構造と数字の羅列が出てきます...が、CPUでは永遠の時を要します。そこでColabの登場です!

ちなみに学習が完了すると darknet/backup に .weights ファイルが保存されます。

 

 

重み出力間隔の設定:

weightsファイルはデフォルトでは

・1000epochsまでは100epochsごとに出力

・1000epochs以降は10000epochsごとに出力

という仕様になっており、1000-10000までの間が割と幅があるので、1000epochs以降も100epochsごとに細かく出力されるように設定したい。

 

 darknet/data/examples/detector.c    138行目を以下のように書き換える。

# デフォルトでは10000epochsごとに出力
if(i%10000==0 || (i < 1000 && i%100 == 0)){

# 上記を100epochsごとに書き換える
if(i%100==0 || (i < 1000 && i%100 == 0)){

darknet/ 内で make を通す。

$ make

 

 

 

 

7. darknetフォルダをzipに圧縮

Colab上ではGPUを用いるので、 darknet/Makefile を開いて GPU=1 に書き換えます。

この際、Mac上では make は実行しない(GPUがないのでエラーが出る)。

 

Colabで実行するためにはgoogle driveにアップする必要があるので、この darknet フォルダごと圧縮しておく。

$ cd ../
$ zip -r darknet.zip darknet 

 

  

ということで、学習準備が整ったので、無料でGPUが使えると噂のGoogle Colaboratoryを使って学習させてみましょう。

 

 

 

2. 学習する(Colab上)

1. google driveにzipファイルをアップロード

自分のGoogleアカウントでDriveにログインする。

適当なディレクトリにzipファイルをアップロード。

 

2. google colaboratoryを開く

https://github.com/wakuphas/wakuphas/blob/master/AI/Scripts/darknet_airport.ipynb

 これを .ipynb として保存して、同じくGoogle Driveにアップロードする。

Drive上で右クリックし「アプリで開く」->「Google Colaboratory」を選択。

 

「ランタイム」タブから「ランタイムのタイプを変更」を選択し、Python3GPUを選択する。

 

基本的には darknet_airport.ipynb に記載した指示通りにセルの実行を行っていけば以下の手順が完了し、学習できる...はず!!

 

ⅰ ) Colab上で環境構築

ⅱ ) zipを「Colab上」にアップロード

ⅲ ) makeを通す

ⅳ ) ./daknetコマンドで学習する

ⅴ ) 重みファイルを出力

 

2.5. Colabの諸注意

無料なので色々ルールはありますが、12時間ルールが一番気を付けるべき点です。

GPUに接続してから最大で12時間連続で稼働させることができますが、12時間をすぎると、アップロードしていたデータや出力したファイル、構築した環境まで全て消えます!笑

なので毎回先ほどのipynbファイルの環境構築を行う必要があります。

また数時間経つとGPU自体は使えるようになりますが、消えたデータは元に戻らないので、右クリックで重みファイルなどはこまめにダウンロードしておきましょう。

 

 

3. 出力されたweightsファイルをMacにダウンロード

 

./darknetコマンドで学習する際、最初は用意された初期値を読み込むが、一度中断しても出力された重みファイル.weightsを初期値として読み込めばそこから再開可能。

# 用意された初期値を用いる場合

$ ./darknet detector train cfg/obj.data cfg/yolo-obj.cfg darknet19_448.conv.23 > train_log.txt


# 出力した重み yolo-obj_XXX.weights を読み込む場合

$ ./darknet detector train cfg/obj.data cfg/yolo-obj.cfg backup/yolo-obj_XXX.weights > train_log.txt

train_log.txtにログを出力。Macにダウンロードして開く。

数行ごとに出てくる以下に着目。

--

937: 34.240753, 37.657242 avg, 0.000771 rate, 5.082382 seconds, 59968 images

--

最初の数字が反復回数。通常2000回は必要。 avgの手前の数字が小くなればなるほど精度が高い。 0.1以下くらいが良い?

avgの数字が減らなくなってきたら学習を止める。

Colab上の重みファイル darknet/backup/***.weights をローカルのMac上にダウンロードしておく。

筆者の場合、train_log.txtのavgの値とepoch数の関係は以下のようになっていた。

extractor.shplot.pyを darkflow/ にダウンロード。extractor.shの中身は適宜自分のtrain_log.txtがあるパスに書き換える。)

$ sh extractor.sh   # epochavg.txtが出力
$ python plot.py 

f:id:wakuphas:20180919112542p:plain

2000epochs以降はほぼ増減がないので、そこで打ち切ってもいいのだが、今回は3600回まで回したものを使用する。

最終的な avg は 2 程度でだったが、妥協する。

 

 

 

3. 認識させる(Mac上)

1. darkflowをインストールする

$ git clone https://github.com/thtrieu/darkflow.git
$ cd darkflow
$ python3 setup.py build_ext --inplace

 

2. Pythonプログラムを作成する

https://github.com/wakuphas/wakuphas/blob/master/AI/Scripts/detect.py

このdetect.pyを darkflow/ に入れる。

 

いじるのは主に以下。

6行目:ファイルのパスを記載。

11行目:認識したい画像のパスを記載。

21行目:検出するクラス名を指定。

35行目:confidenceが0.1以上のものを表示。

 

 

 

3. weightsファイルをロードして物体検出させる 

以下4つを準備。

・Colabで学習して出力した weights は darkflow/backup に入れる。

・学習に用いた darknet/cfg/yolo-obj.cfg は darkflow/cfg にコピーして、batch=1、subdivisions=1に変更して保存。 

・darkflow/ に labels_airplane.txt を作成してairplaneと1行だけ記載して保存。

・確認用画像として test_airplane.jpg を darkflow/ に保存。

 

 

 

 

detect.pyを実行。

$ python detect.py

f:id:wakuphas:20180919135415p:plain

 こんな感じで、上空からみた飛行機の位置とラベルを認識して表示してくれたら成功!

f:id:wakuphas:20180919112055j:plain

 escボタンで終了できる。

 

 

よく出たエラー

(1) ロードしたcfgとweightsファイルで4 bytesずれる

エラー:

$ python detect.py
AssertionError: expect 202314760 bytes, found 202314764

解決:

darkflow/darkflow/utils/loader.py
121行目の self.offset = 16 を 20にすると解決する。

 

(2) ロードしたcfgとweightsファイルが対応していないと怒られる

エラー:

$ python detect.py
AssertionError: Over-read backup/yolo-obj_3300.weights

解決:

この問題が一番苦戦したのだが、このエラーが出たら以下を確認してみてほしい。

・darkflow/cfg/yolo-obj.cfg と darknet/cfg/yolo-obj.cfg はBatchとsubdivision以外同じか

・Colab上で学習するときに使用した darknet/cfg/yolo-obj.cfg を新しく置き換える。https://github.com/pjreddie/darknet/blob/master/cfg/yolov2-voc.cfg からダウンロードしてもう一度 1-6.学習パラメータの設定 からやり直してみる。

 

 

考察

学習する飛行機の写真が、上からみたものと横から見たものが混ざっていたせいか、横からの飛行機はあまりうまく認識してくれなかった。

上から見た飛行機は基本的に全て飛行機の形状は同じだが、横から見た場合、角度が異なると形状も全く異なるので様々な角度からの写真が必要なのかもしれない。

 

 

 

お世話になったサイト 

YOLOv2を使って自前のデータを学習させて認識させるまで。 - 可変ブログ

YOLOv2のリアルタイム物体検出をTensorFlowとPythonで実装する方法 | AI coordinator

YOLO: Real-Time Object Detection

How to train YOLOv2 to detect custom objects

AIQ株式会社

TensorFlow + Kerasでサルを分類できるのか試してみる(2) ~ 学習データを増やして精度を上げる

YOLOv2(TensorFlow)を使ってリアルタイムオブジェクト認識をしてみる

JAXA Space Business Night! Vol.2「ビジネス×衛星データ」(2018.8.23)に参加してきた

こんにちは。wakuphasです。

 

 

本日はJAXA × BIZVenture Café Tokyoが主催する、Space Business Night! Vol.2に参加してきました。

内容としては宇宙ビジネスの「今」を体験できるセッションとなっています。

 

◇プログラムと登壇者

①衛星データと衛星データ利用ビジネス
JAXA新事業促進部 事業開発グループ 武田隆史


トークセッション:オープン&フリー化に見る、衛星データの可能性
さくらインターネット株式会社 セールスマーケティング本部 営業部 アカウントエグゼクティブ 鈴木仁志氏
JAXA新事業促進部 事業開発グループ 主任 山﨑秀人

 

 

それでは、内容についてまとめていきたいと思います。

 

J-SPARCとは

はじめに、JAXA新事業促進部武田さんからJ-SPARCに関する軽い説明がありました。

J-SPARCJAXA Space Innovation through PARtnership and Co-creation)は宇宙イノベーションパートナーシップのことで、JAXAが2018年5月から開始した事業共創プログラムです。

これまでは民間とJAXAが明確な線引きのもと宇宙開発を行ってきましたが、これからは事業コンセプトの段階から実証プロセスに至るまで、民間と共同で行っていくようです。

f:id:wakuphas:20180823213742j:plain

J-SPARCの支援プログラムとしての位置付け(下から2つ目、出典: 宇宙ビジネスコート)

 

またJ-SPARCが取り組む事業群は大きく以下の3つです。

・人類活動領域を広げる

・宇宙を楽しむ

・地上の社会課題解決

f:id:wakuphas:20180823212850p:plain

J-SPARCが取り組む事業テーマ(JAXA

J-SPARCを始め、JAXA新事業促進部は、これまで蓄えてきた宇宙開発に関する知見を民間に解放していくサービスを提供しています。今後の宇宙ビジネス発展において重要な位置付けになりそうです。

wakuphas.hatenablog.com



 

Tellusとは

「Tellus(テルース)」とは、さくらインターネット株式会社が開発する日本初の衛星データプラットフォームのことです。

ちなみに欧州にはコペルニクスというデータプラットフォーム事業が既に存在しています。

宇宙ビジネスコート主催「ビジネス交流会 SUMMER2018」(2018.7.24)に参加してきた「コペルニクスとは」 - 猫と宇宙と音楽と

 

◇背景

民生分野での宇宙データ利用を促進させることで、日本の官需中心の宇宙産業を民需中心にしたい。しかし解析手法の難しさやデータ処理の負担から浸透し辛い現状がある。

これをTellusで解決する。

 

◇Tellusが提供するサービス

・処理済の衛星データ(オープン&フリー)※

・ストア(ユーザが解析ツールを作成・販売・購入することができる)

・ライブラリ(国内外の宇宙時事ニュースの発信)

・データコンテスト(2018年夏季頃から随時実施)

・ラーニングイベント(宇宙ビジネス活用のための講座等)

※基本的にストレージと解析するための環境が全てクラウドで提供されます。

 

◇Tellus計画の流れ

1. 2018年5月9日
経済産業省の「平成30年度政府衛星データのオープン&フリー化及びデータ利用環境整備事業」の委託先としてさくらインターネットが契約。

分析・解析などに必要なコンピューティングを有したプラットフォーム「Tellus(テルース)」の構築・運営に着手。

 

2. 2018年7月31日

民間の取組として、本プラットフォームの開発・利用促進を行うアライアンス「xData Alliance(クロスデータアライアンス)」を発足。

prtimes.jp

 

3. 2018年9月末にClosed β版リリース予定

Tellusのβ版の事前申し込みはこちらから行うことができます。

www.tellusxdp.com

 

3. 2018年12月末にOpen β版リリース予定

 

4. 2019年2月下旬にVer.1.0を提供開始予定

 

5. 2021年にはプラットフォーム運営民営化予定

 

 

◇具体的な使用感や解析ツールは?

こちらは質問してみたのですが、いくつか構想があり、今まさに議論の最中だそうです!

ただGoogle Earth Engineやその他の近年のサービス同様API連携をとても大事にしているとのこと。

また、光学画像はすでに安価で使いやすい解析ソフトがあるが、マイクロ波領域のSAR(Synthetic Aperture Radar)衛星の解析ツールはまだ高額だそうで、Tellusではこれら全てのデータをできるだけ簡単に解析できるツールをクラウド上で提供する予定とのこと。

SAR衛星とは?ASNARO-2で広がる宇宙ビジネスの可能性 | 宙畑

 

 

まとめ 

本日は、JAXAの主催するSpace Business Night! Vol.2「ビジネス×衛星データ」の内容をまとめてみました。

 

今回紹介したデータプラットフォーム「Tellus」は、衛星データビジネスへの参入障壁であるデータ収集と解析のハードルを大幅に下げてくれるものです。

 

しかし、それにも関わらず、どこか先が不透明な気がしました。

結局一番の課題は顕在化された顧客がいないというところにある気がします。

 

・宇宙のデータだけではだれの役にも立たない。地上の全く別のデータと組み合わせて始めて衛星画像は価値を持つ。

⇒非宇宙業界こそチャンス。

 

・データベースだけ渡されても売れる事業にする仕方がわからない。

⇒エンドユーザーのニーズ抽出が先。

 

とはいうものの、このTellusはそうした宇宙ビジネス発展のファーストステップであることは確かだと思います。

 

宇宙ビジネスコート主催「ビジネス交流会 SUMMER2018」(2018.7.24)に参加してきた「コペルニクスとは」

 こんにちは。wakuphasです。

 

今日は宇宙ビジネスコートが主催する、ビジネス交流会に参加してきました。

f:id:wakuphas:20180727201705p:plain

 

 この交流会自体は、宇宙をキーワードに既存事業の幅を広げたい方や衛星データを活用して新たなビジネスチャンスをに見出したい方のための、ネットワークの構築を目的としたイベントであり、本日で2回目の開催となります(前回は2018.1.12)。

参加者は、ICT調査機関、ITベンチャー、ビジネス開発、不動産テック、フィンテック、通信サービス、マーケティング、地域産業振興団体、芸能プロダクション等々多様な産業界出身の方々が集っていました。

 

また交流会だけでなく、欧州Copernicusの最新動向やアクセス方法をご紹介するセミナーの時間も1時間ほどあり、非常に有意義な時間でした。

今回の記事ではこのコペルニクス計画についてまとめていきたいと思います。

 

 

コペルニクス(Coupernicus)とは 

コペルニクスとは地球観測衛星(宇宙)現場データ(地上)に基づいて、ヨーロッパの情報サービスを開発することを目的とした欧州連合のプログラムです。

一言で言うならば、EUの所有する全ての地球観測データを一元管理して、だれでもアクセスできるようにしたデータプラットフォームです。

 

特徴は:

ヨーロッパだけでなく地球全体の観測データ

ほぼリアルタイムのデータ提供

高解像度

データの定期的かつ体系的なレビュー

人災や自然災害への対応を向上する迅速なレスポンス

国が運営しているので無料 

 

 

参画機関一覧

欧州委員会

EU加盟国

欧州宇宙機関 (ESA

・欧州気象衛星推進機関 (EUMETSAT)

・中規模気象予報センター (ECMWF)

EU参加機関

・海洋予報NPO団体Mercator Ocean

 

まさにEU全体で取り組んでいる大規模プロジェクトといえます

 

 

具体的なデータソースは以下の3つ

1. 新規衛星Sentinelシリーズ(Sentinel1-6、将来的には20機体制)

2. ESAの観測衛星やEU諸国の民間企業の商業衛星など既存のデータ

3. 現場データ(In-situ Data): 欧州環境機関(EEA)やEU諸国が所有する地上・海上・空中センサー、気象所、船舶、航空機などによって得られた観測データ。

 

これらのデータを蓄積していくことで、最新情報を高い信頼をもって提供することが可能となっています。

 

 

提供しているサービスは6種類

コペルニクスが提供するデータプラットフォーム6分野あり、ユーザーは用途に沿って各サービスにアクセスします。

 

f:id:wakuphas:20180727192238p:plain

コペルニクスの6つのサービス

 

 

しかし欧州のサービスには課題も

・欧州にはコペルニクスの6つのサービスを含め、10個もの地球観測データプラットフォームが存在する

・また学術研究者向けに作られているのでやや専門的で、UIが使いづらい

クラウド上で解析できないので膨大なデータをダウンロードするのに時間がかかる

・データはダウンロードできるが、解析ツールがわからない

 

⇒これらの課題を解決するよりユーザー目線のプラットフォームが必要です。

 

 

DIAS、RUSの登場

コペルニクスにおける上記の課題を解決すべく、欧州委員会が民間への委託事業として展開する、利用しやすさにフォーカスした新たなデータプラットフォーム事業を、DIAS/RUSと呼びます。

f:id:wakuphas:20180727194813j:plain

DIASとRUSの違い

1. DIAS(Data Access & Information Service)

コペルニクスの6分野のデータを一元管理

クラウド型プラットフォーム

・解析もオンライン上で可能

・民間企業のコンソーシウムによる民間サービスとして運営

・4つのコンソーシウムが独立にサービス提供するため競争原理による成長

・民間によるものなのでおそらく有償

 

2. RUS(Research & Usersupport for Sentinels)

・Sentinel衛星の練習用・学術研究用プラットフォーム

クラウド上でデータ管理・解析可能

・商業利用は不可

・専門家によるサポート

・基本的に無償

 

そしてこのDIAS(ディアス)のコンセプトの一つとしてマーケットプレイスを設置するというものがあります。つまり、Apple Storeのようにユーザーが開発したアプリやツールを販売できるプラットフォームの役割も兼ねているのです。

 

 

 

以上です!

今回は欧州の地球観測データ補完計画こと「コペルニクス」の今についてまとめてみました!

日本でもさくらインターネットJAXAの画像データをクラウド化し、オープンアクセスできるようなサービスを2019年2月頃を目処に開始します。高解像度の画像や分析結果の販売も行っていくようです。

衛星データビジネスを始める際、一番の壁がデータ収集と処理方法なので使いやすいプラットフォームが完成すれば一気にビジネスが広がるでしょう。

さくらインターネット、政府衛星データをオープン、フリーに使えるプラットフォームを提供へ:衛星データと地上データを融合 - @IT

 

 

またコペルニクスリレーネットワーク日本拠点というものが2017年3月に誕生しているので、コペルニクスのデータ利用に関する相談・お問い合わせはこちらに!

www.eu-japan.eu

 

 

JAXAシンポジウム2018@有楽町(2018.7.5)に行ってきた(2)

こんにちは。wakuphasです。

 

前回に引き続き、JAXAシンポジウム2018「Discovery NEW! with new JAXA」のまとめ記事です。

以下目次です!

 

 

1. JAXA活動紹介(ビデオ)

2. 第4期中長期計画について(山川宏 JAXA理事長)←前回

3. 宇宙観測探査船団の構築について(國中均 ISAS所長)←前回

4. BepiColomboの最新状況について(早川基 ISAS BepiColomboマネージャ)←本記事

5. パネルディスカッション「宇宙開発・探査の意義と課題について」←本記事

 

 

BepiColombo計画について

BepiColomboベピコロンボ)とは、日本とヨーロッパ(European Space Agency(ESA):欧州宇宙機関)と共同で計画中の水星探査ミッションの名前です。

共同といってもいろいろな形がありますが、今回はJAXAESAで別々の探査機を開発し、一緒に飛ばそうぜ!というものです。

 

具体的には、以下のようにミッションを分担しています。

 

JAXA

・日本の得意分野である磁場・磁気圏の観測を主目標とする水星磁気圏探査機MMO(Mercury Magnetospheric Orbiter)の開発

・水星周回軌道における運用

 

ESA

・水星の表面・内部の観測を行う水星表面探査機MPO(Mercury Planetary Orbiter)の開発と運用

・打ち上げから惑星間空間の巡航、水星周回軌道への投入

 

このような協力体制の下、1+1=10を目指してプロジェクトが進んでいるようです。 そういえば最近MMOは公募によって「みお」という愛称になりましたね。

 

 

水星は、太陽に近い灼熱環境と軌道投入に要する多大な燃料から周回探査は困難で、過去の探査は米国マリナー10号の3回の通過(1974~1975年)のみでした。 この時、金星を通過してその重力でスイングバイを行うことによって何回か水星に接近できることを示唆したのが、イタリアの著名な天体力学者ジウゼッペ・コロンボ博士で、新しい水星探査ミッションの名前には博士の愛称である「BepiColombo」が使われています。

 

ちなみにマリナー10号の観測以前、水星はその見た目から地球の衛星である「月」と同じような性質だと思われていました。しかしマリナー10号によって水星には磁場と磁気圏活動があることが発見され、月とは全く異なる天体であることがわかりました。

こうして科学者たちを良い意味で裏切った水星ですが、1975年以降そのミッションの難易度から探査は行われていないため、今回のプロジェクトは非常に期待されているとのことです。

 

 

パネルディスカッション「宇宙開発・探査の意義と課題」

さて、本講演の目玉といってもよいパネルディスカッションについてまとめていきたいと思います。

f:id:wakuphas:20180717030936j:plain

まず、パネリストですが、以下の6人プラス司会進行役の室山哲也氏(NHK解説委員)で行なわれました。上画像左から

  • 山崎 直子氏(宇宙政策委員会委員、宇宙飛行士)
  • Mr. Ted McFarland(Blue Origin アジア太平洋地区ディレクター)
  • Ms. Anita Bernie(SSTL 探査ミッション/機関連携部門ディレクター)
  • 落合 陽一氏(筑波大学 学長補佐)
  • 袴田 武史氏(株式会社ispace代表取締役
  • 山川 宏(JAXA理事長)

 

そうそうたるメンバーですが、特に宇宙業界の講演に落合陽一さんが現れることは珍しく、会場全体もその一挙手一投足に注目していました。

 

ちなみに詳しい講演内容を知りたい方は、動画(2時間30分程)としてアップロードされているのでこちらを。

youtu.be

 

 

宇宙開発・探査の「意義」

意義、これかなり大事で、ビジネスとか事業とかって人への伝え方次第で協力者の数とか、出資額が変わってくると思います。

その意味で、宇宙業界側の考える意義と、大衆の考える意義のすり合わせの場としてこのディスカッションはとても重要だと思います。

 

議論に上がっていた意義としては以下のようなものがありました。

・新たな雇用の創出

・宇宙資源の活用

・宇宙経済の発展

・人類の生活圏の拡大

・地上の汚染物質の廃棄

 

 

私自身は、宇宙開発の意義は短期的なものと長期的なものがあると考えています。

 

短期的衛星データ利活用による社会規模、地球規模の課題解決

宇宙への輸送技術や衛星観測・解析技術が向上してきた現在、以下のようなものが考えられます。

通信衛星、陸域・海域観測衛星による防災インフラの構築

・通信弱者地域への通信網の普及

・農業や漁業など衛星画像を利用した新しいビジネスの創出

 

長期的人類の生活圏拡大、先端技術の地上へのフィードバック

いわゆる科学探査などは世間的には、その意義を感じ取りにくいため、おそらく予算や出資を取りやすいのは、上記の短期的な目的の方でしょう。

しかし人類は知的好奇心を元にここまで発展してきた生物であることを忘れてはなりません。たとえ今地球に住めないという状況下でなくとも、宇宙に行きたい、宇宙で生活したいという思いはその損益に関わらず、頭に存在しているはずです。

ただ知りたい、行きたいという純粋な欲の先にこそ、イノベーションがあると思います。落合さんも「何が起こるか予測できるのなら、それはイノベーションとは呼ばない」とおっしゃっていましたが、この気持ちを行動に移すことこそが、今の宇宙開発に必要なエッセンスなのでしょう。

 

実際、宇宙を知りたいという純粋な知的探求心、古来より行われてきたあくなき追求は結果としてその過程で得た技術や知見を元に、人類にとてつもなく大きな利益をもたらしています。

例えば衛星は非常に狭い空間の中、省電力かつ高性能でなければならないため、必然的に最先端技術が生まれます。この技術は地上における医療機器や環境計測の分野へとフィードバックされているのです。

 

 

宇宙開発・探査の「課題」と「解決」

(1)民間と政府の役割分担

ここが意外と鬼門で、これまで9割近くを官需に依存していた構造から、いきなり民間に全て委託することは、現実的には難しいと思います。

ただ、大貫美鈴 著「宇宙ビジネスの衝撃」刊行記念イベント@池袋(2018.6.7)に参加してきた(1)で記しているように世界全体ではすでに民需が80%近くを占めています。確実に民間は力を付け、近い将来民間に頼らざるを得ない産業構造に変化していくことは必至です。

 

そこで課題となるのが、国 (JAXA内閣府等) と民間はどう棲み分けるべきなのか、という問題です。

すでに答えは出かかっていますが、ざっくり言うと

内閣府ベンチャーや民間分野の事業支援の制度を作る

JAXA:ハイリスクで利益の出にくい基盤技術の研究を行う

民間JAXA等から技術を受け継ぎ、実際に人々が使えるようにサービス化

という線引きがなされていくと思います。

間違えてはいけないのが、それぞれが競合ではなく、協力の関係にあるという点です。

 

(2)宇宙開発はハイリスク、高コスト

現在、Space Xを始めとして再利用ロケットの開発が活発化し、低コストで打ち上げが可能になりつつあります。とはいえ一回数十億はかかるわけで、普通の民間企業ましてや、スタートアップが気軽に利用することは難しいのが現状です。

また実際にサービス化できたとしても本当にビジネスとして成立するかはやってみないとわかりません。そんな中で、確かなビジョンを掲げ、明確な計画と共に事業構想を持っている人がVCからお金を得ているわけです。

しかしこれはBtoCの話で、BtoG (Gorvenment) と顧客を変えれば成立する可能性はあります。特に月探査計画などは、政府だけではとても実現不可能であり、実践的な技術力を要します。すなわち民間が探査プロジェクトに入り込む余地はかなり大きそうです。

上記でハイリスク高コストは国が管理するべきというような書き方をしましたが、国は民間の協力を欲しているというわけですね(以下参照)。

国際宇宙探査に関するワークショップ@八重洲に参加してきた (2018.6.11) - 猫と宇宙と音楽と

 

(3)法整備

宇宙に関する法規制はまだまだ未整備であり、宇宙には国境があるわけでもないのに、国や団体によっても食い違いがよくあります。実際宇宙開発は戦争と共に成長してきたのも事実なので、慎重にならざるを得ません。

またこれに関しては新事業推進と法整備どちらを先にやるべきということではなく、事業者と政府が共に歩きつつ、すり合わせていく必要があります。例えばここ数年の仮想通貨を取り巻く環境の著しい変化を見てもそれは明白です。

 

(4)議論を深めるコミュニティ作りが大切  

宇宙開発はこれまで圧倒的に国主導で行われてきた側面もあって、民間事業者同士のつながりはあまりありませんでした。しかし最近は様々な宇宙界隈をつなぐコミュニティが出来つつあります。

 

宇宙ビジネスのプラットフォームとして日本初の民間宇宙ビジネスカンファレンスを主催しているSPACETIDEはその最たる例です。

www.spacetide.org

 

また宇宙事業を始めたいけど知識がない、という方向けにも宙畑を始め、様々な宇宙ビジネス情報プラットフォームがあります。

sorabatake.jp

 

内閣府が主導しているS-NET 宇宙ビジネス情報ポータルサイトは「宇宙」をキーワードに新産業・サービス創出に関心をもつ企業・個人・団体などの活動を支援・創出するネットワーキング活動です。

www.uchuriyo.space

 

S-NETのビジネス窓口として設置された宇宙ビジネスコートは、宇宙ビジネスを始めたい方へのコンサルから、衛星データ利用の勉強会なども開催しています。

www.bizcourt.space

 

 

以上で、JAXAシンポジウム2018のまとめを終わります。

このシンポジウム自体もJAXAが確かに産学官連携の場作りに力を入れている証拠であり、日本全体として着実に変化を肌で感じ取ることができる、そんな講演でした!

 では。

 

JAXAシンポジウム2018@有楽町(2018.7.5)に行ってきた(1)

こんにちは。wakuphasです。

 

今日はJAXAの主催するJAXAシンポジウム2018「Discovery NEW! with new JAXA」に参加してきました!

元宇宙飛行士の山崎直子さんやBLUE ORIGINのTedさんを始め、メディアアーティストの落合陽一さんもパネリストとして参加しており、非常に楽しい2時間でした。

会場は有楽町朝日ホールでかなり大きめのホールですが、700名ほぼ満席状態でした。そして10代20代30代と若めの方が多い印象でした。

f:id:wakuphas:20180705235810j:plain

JAXAシンポジウム2018@有楽町朝日ホール

 

早速内容についてサクッとまとめていきたいと思います。

まず、コンテンツとしては

1. JAXA活動紹介(ビデオ)

2. 第4期中長期計画について(山川宏 JAXA理事長)←本記事

3. 宇宙観測探査船団の構築について(國中均 ISAS所長)←本記事

4. BepiColomboの最新状況について(早川基 ISAS BepiColomboマネージャ)←次回

5. パネルディスカッション「宇宙開発・探査の意義と課題について」←次回

【パネリスト(敬称略)】

  • 山崎 直子氏(宇宙政策委員会委員、宇宙飛行士)
  • 落合 陽一氏(筑波大学 学長補佐)
  • 袴田 武史氏(株式会社ispace代表取締役
  • Mr. Ted McFarland(Blue Origin アジア太平洋地区ディレクター)
  • Ms. Anita Bernie(SSTL 探査ミッション/機関連携部門ディレクター)
  • 山川 宏(JAXA理事長)

 

といった感じです。

1. については割愛させていただいてそれ以降について書いていきます。

 

 

 

 

第4期中長期計画について

JAXAは平成30年4月1日から新たに第4期中長期計画を掲げています。

これについて新理事長である山川さんから簡単に述べられていました。

 

計画について説明する前に、現在の宇宙業界の環境の変化について軽くおさらいしておくと、

 

国内では

・宇宙2法制定、施工(宇宙基本法リモートセンシング法)

宇宙産業ビジョン2030 (内閣府

ベンチャー支援のパッケージ提供

 

国外では

発展途上国の宇宙産業参入(南アフリカ、ナイジェリア、アルジェリアでは衛星を用いた通信、放送、画像取得に力を入れ始めている)

ベンチャーの台頭(space X、Blue origin...)

 

といった変革が起きています。特に国外の変化スピードは目覚ましく、日本もその波に乗ろうと新しく計画を練り直したわけです。 その内容が...

 

JAXAの4本の柱(中長期経営計画)

(1)安全保障の確保 

スペースデブリの除去、災害時のインフラ確保など

 

(2)宇宙利用拡大と産業振興 

J-SPARCJAXAが主導するビジネス創生プラットフォーム)の設置。

また、主に以下の3つの軸での振興。

人類の活動領域を広げる 

 軌道、遠隔操作技術 

社会課題解決 

 ビッグデータ、AI

楽しむ 

 衣食住、VR 

 

(3)宇宙科学、探査 

はやぶさ2リュウグウ)、ベピコロンボ(水星)

ISEF2を受け、国際宇宙探査センターを2018.7に設置

JAXAが優位性を持っている分野(サンプルリターン、補給機等)で国際協力。 

 

(4)航空産業振興、国際競争力強化 

JAXA乱気流検知装置が、ボーイング社に高く評価される。今後民生品に導入へ。 

国土交通省によると我が国の半分以上の航空機事故は乱気流によるもの(2010年)。

 

 

上記の4つの指標が今後JAXAが力を入れていく分野と言えます。

もちろん全部重要なのですが、中でも産業振興の重要性についてはかなり意識しているようでした。

 

 

 

 

宇宙観測探査船団の構築について

続いて、ISAS宇宙科学研究所)所長の國中均さんから、今後の宇宙科学観測・探査の展望について語られました。

具体的には以下に説明するX線・赤外線・マイクロ波という幅広い波長域での(i)マルチ観測、(ii)惑星探査、(iii)小惑星や彗星探査といった視点でJAXAによる広大な宇宙探査ネットワークを作ろうというものです。

f:id:wakuphas:20180706134004p:plain

ISAS/JAXA 宇宙科学・探査プログラム(JAXA

( i )多波長観測

X線

ひとみ衛星が2016年3月に打ち上げられ、プログラムミス、人為的なミスにより失敗に終わってしまってことは記憶に新しいですが、新たなに2020年代前半を目標にひとみ2号機としてXRISM衛星プロジェクトが始動しています。

実際、ひとみ衛星を失ったことによって世界のX線天文学は10年間新しい衛星がない状態が続き、その分研究も遅れるだろうと言われていたので、このプロジェクトは成功してほしいですね。

ひとみ衛星に搭載された軟X線分光検出器(SXS: Soft X-ray Spectrometer)は世界最高のエネルギー分解能を誇る検出器で、観測が本格始動する前の試験観測だけでNature級の発見をしています。XRISM衛星は予算が半額程度になっているので、検出器搭載数は減っていますが、このSXSは搭載するようです。

Hitomi Mission Charts Hot Winds of Galaxy Cluster for First Time | NASA

 

赤外線

続いて赤外線天文衛星SPICAが2027-2028年の打ち上げを目指して欧州と協力の下、プロジェクトが進行中です。

観測目標は "銀河進化を通しての重元素とダストによる宇宙の豊穣化" および "生命居住可能な世界に至る惑星系形成" となっています。

SPICAの科学目的

 

マイクロ波

最後にCMB偏光観測小型科学衛星 LiteBird2020年代半ばの打上げを目指して概念設計に従事しています。

現在、KEK東京大学カブリIPMU、JAXA岡山大学国立天文台、カリフォルニア大学バークレー校、マックスプランク宇宙物理学研究所などから総勢130名以上の研究者がLiteBIRDワーキンググループに参加しています。

 CMBとはCosmic Microwave Background宇宙マイクロ波背景放射)と呼ばれ、ビッグバン後の宇宙の晴れ上がりのときに宇宙に満ちていた3000Kの電磁波が、宇宙の膨張と共に引き伸ばされ約2.7Kの電磁波として現在観測される「宇宙始まりの光」です。

そしてビッグバンが宇宙の始まりと思っている方もいるでしょうが、現在の宇宙を見るとあまりに均一な密度(どの方向をみても同じ密度)であり、これを説明するためには、ビッグバン以前に急激な膨張=インフレーションがあったとする説が主流になっています。簡単にいうと物質が引力によって集まり出す前にそれを上回る速度で膨張させちゃえ!というわけです。

この理論は1981年に日本人の佐藤勝彦さんによって提唱されました。

宇宙創生を解明する「インフレーション理論」 佐藤 勝彦 氏

前置きが長くなりましが、今回打ち上げられるLite Bird衛星はこのインフレーション理論の証拠を探すための衛星です。

インフレーションの際、急激な膨張により時空が歪み原始重力波が生まれます。するとCMB偏光(電磁波の偏り)の分布に特殊な渦巻きパターン(「Bモード偏光」という名前がついています)が刻印されると予想されています。これを検出すれば、インフレーションの動かぬ証拠です。

 

( ii )惑星探査

2020年代までに水星から木星まで全ての惑星に衛星を送り込む計画を、JAXA Deep Space Fleetと呼んでいます。

水星:Bepi Colombo

金星:あかつき

地球:様々

火星:MMX(火星衛星サンプルリターン計画)

木星:JUICE(木星氷衛星探査計画)

 

( iii )小天体探査

小惑星宇宙塵、彗星を探査することで、地球にいつどうやって水がもたらされたかを明らかにする。

はやぶさ2が6月にリュウグウに到着したことは世間を賑わせました。

ちなみに個人的に面白かったのが、光の反射率によって小惑星の組成が分かるというお話。

イトカワ 反射率90%(明るい)⇒ S型小惑星

:ケイ酸鉄やケイ酸マグネシウムなどの石質の物質を主成分とする小惑星であり、既知の小惑星の約17パーセントを占める

リュウグウ 反射率4%(暗い)⇒ C型小惑星

:炭素系の物質を主成分とする小惑星であり、既知の小惑星の約75パーセントがC型小惑星である

f:id:wakuphas:20180706135028j:plain

宇宙要塞デス・スターに到着するはやぶさ2(ISAS:國中均)



ということで今回はJAXAシンポジウム2018のまとめ(1)でした!

次は後半についてまとめていきます。