柔らかいロボット
皆さんは柔らかいロボットと聞いて想像できるでしょうか?
ロボットといえば金属やプラスチックなどで作られているものを想像してしまいます。
硬い機械というイメージが強いのではないでしょうか?
近年は、柔らかい素材で作られたソフトロボットなるものが様々なところで開発されております。
実際どのようなものがあるのか実際に見ていきましょう。
自己修復するロボット
このロボットは傷ついた部分を自己修復してしまうというロボットです。
傷ついた部分を熱を与え自己修復していきます。
このロボットは、ベルギーのブリュッセル大学の研究により開発されました。
この技術が応用されれば、故障をしても自分で直す無敵のロボットが完成しますね。
タコ足ロボット
こちらはタコの足をロボットとして作ったものです。
ちゃんと吸盤もついており、ものをつかむことができます。
このロボットはドイツの某メーカーで作られたみたいです。
まさかタコの機能をロボットに求めるとは、斬新すぎます。
透明なロボットアーム
こちらは魚ですら水中では確認できないくらい透明なロボットアームです。
シラスウナギが形成されているヒドロゲルを材質としたロボットです。
ヒドロゲルは水中に入るとカモフラージュの効果を発揮するため魚には見えないらしいです。
こちらはマサチューセッツ工科大学で発明されたロボットです。
材質が液体に近いゲルなので、魚を傷つけることなく捕獲できるようです。
このように柔らかいロボットは、日々進化しています。
進化していけば、色々なものに応用されていくのではないでしょうか。
今後の進歩に期待していきましょう。
また、弊社でも小さい頃からロボットに関する知識や教養を身につけた方がいいという考えのもと、ロボットカリキュラムも開催しております。無料で体験できますのでお気軽に下記リンクよりお申し込みください。
「令和」で予測される信じられない事
平成から令和へ。時代はどんどん新しくなっていきます。果たして令和はどんな時代になっていくのでしょうか。
1.令和に込められた意味について
これまでの元号は中国の古典から出典されていました。
令和(れいわ)は日本最古の歌集の万葉集から出典されており、初めて日本の古典からの出典となりました。
「時、初春の令月(れいげつ)にして、氣淑く風和ぎ、梅は鏡前の粉を披き、蘭は珮後の香を薫す。」
出典:万葉集の梅の花32首
安倍首相は4月1日、会見で以下のように談話を発表しました。
厳しい寒さの後に春の訪れを告げ、見事に咲き誇る梅の花のように、一人ひとりの日本人が、明日への希望とともに、それぞれの花を大きく咲かせることができる。そうした日本でありたい、との願いを込め、「令和」に決定いたしました。
出典:https://nlab.itmedia.co.jp/nl/articles/1904/01/news090.html
ちなみに平成は「天地、内外ともに平和が達成される」を意味していました。
やはり、どんな時代も平和の追求ということですね。
2.令和はこんな時代に!?
2-1.令和2年(2020年) 東京オリンピック
やはりなんといっても最初のビッグイベントは東京オリンピックです。
2020年7月24日から8月9日まで東京で開催されます。実に1964年以来2回目の開催です。
滝沢クリステルさんのプレゼンの「おもてなし」がとても印象的で、2013年の流行語大賞にもなりました。
開催が今から待ち遠しいですね。
2-2.令和9年(2027年) リニア中央新幹線開業
「歴史をつなぎ、未来をつくる。」
令和9年は超電導リニアがいよいよ、開業予定です。時速500kmで品川・名古屋間で2027年に開業予定です。
公式サイト(https://linear-chuo-shinkansen.jr-central.co.jp/)もかっこいいです!
2-3.令和27年(2045年) シンギュラリティ
シンギュラリティ、それは2045年と予測されている、人工知能が人間の能力を超える技術的特異点のことです。
人間がAIやナノテクノロジーなどとの融合により人間の成長曲線が無限大になる点、特異点に到達することです。パラダイムシフトとも言いかえることができるでしょう。
特異点とはy=1/xのとき、xが1のときはyは1。xが0.1のときはyは10。xが0.001のときyは1000。
ではxが0.000000・・・・・と、0になった時、y=+∞と無限大になります。
このように一般のところと比べて異常な形態を示すところを特異点と呼びます。
2045年問題とも言われ、2000年問題とは比べものにならないくらいの注目を集めています。
シンギュラリティについてはコチラ。
2-4.令和32年(2050年) 宇宙エレベーター
まるでSF映画のような構想の「宇宙エレベーター建設構想」がどんどん現実味を帯びてきているようです。
日本で開発されたカーボンナノチューブという素材を使い、総延長9.6万kmのケーブルを繋ぎ、エレベーターを運行させる計画です。
東京スカイツリーを手がけた大手ゼネコン大林組が実現すると発表しています。
2050年ともなると、AIが人間の知能を超え、宇宙にはエレベーターで行けて・・・と、もうとんでもない世界が広がっていますね。
2-5.他にも・・・
他にも、空飛ぶ車や農業の自動化、血管に入り込むナノロボットなど、様々な新技術が現時点で予測されています。
話題のVR(仮想現実)も現実と区別がつかないほどリアルになると言われています。
3.「令和」を生きる私たちや子供達に必要な事
経済産業省は令和12年(2030年)には約41万人〜79万人IT人材が不足すると推測しております。
参考:経済産業省『IT人材の最新動向と将来推計に関する調査結果~報告書概要版~』
シナリオにそってその数は変わるものの、今後あらゆる職業や業種にITやプログラムが必要となってきます。
よく、AIに奪われる仕事についてのニュースや記事も目にしますが、あらゆる業界と親和性が高いプログラミングについて、今後ますます必須スキルとなる見込みです。
AIやビッグデータ、IoTなどの技術で今日常にある、あらゆるものがこれからすごい速度で進化していきます。
平成が始まる前には、スマートフォンやドローン、自動運転の車などもはや当たり前になりつつあるものが存在しかったように・・・。
もし今あなたが、「プログラミングを覚えたい!」「けど何から手をつければいいのか全くわからない」と思っていたら、ぜひ一度体験教室に遊びに来てください。お子様向けクラスはコチラです。
これからの令和以降の時代は子供達はもちろん、私たち大人にとっても、ITスキルがますます欠かせないものとなっていきます。
是非一度、弊社プログラミング教室にて、プログラミングを体験してみてください。
見えますか?見えませんか?
「ステレオグラム」というものがあります。
「立体画」や「マジカルアイ」とも呼ばれます。
一見するとただの不規則かつ不気味な画像ですが、とある見方をすると立体的な絵が浮いて見えてくるというものです。
正確に見るには意識して両目を使う必要があるので、目を使う分、視力回復に効果があると言われています。
早速どんなものなのか見てみよう
さて、初めて見た方はそれはもう何がなんだかさっぱりな、ただの模様にしか見えませんね。
ただ単にボケーと見ているだけでは何も見えないのです。
立体的に浮き上がってくる絵を見る為には「見る方法」を取得しなくてはなりません。
一般的には2つの方法があります。
方法1 – 平行方
画像を真っ直ぐに、まどろみの中で画像を捉えていくイメージで。
- 視点を定めずボヤァとリラックスした状態で、画像に焦点を合わせないように眺める。画面とは30~40cm程離す。
- 画像がボヤけてきたらその調子、更にリラックスして、画像の奥に視線を合わせる。
- ぼんやりと見えていた画像を中央に近づける。
- 視線を画像に戻すと、画像が立体的に見えはじめる。
方法2 – 交差法
寄り目で画像画像を捉えていくイメージで。
右目で画像の左側を、左目で画像の右側を見るように。
- 画像の前に人差し指を立て、指の先端に視線を合わせて寄り目で。
- 奥にボヤっと見える画像が複数に見え始めたら、その目のまま画像に視線を移す。
- ボヤっと見える画像の中心に目線を写していく。
と、いった感じで。
色々見てみよう
さて、色々と画像や見る為の方法を(ざっくりと)紹介しましたが、
いかがでしたでしょうか。
勿論すぐに見える訳ではありません。
少なからず見方に慣れるまでは辛抱強く続けていくしかありません。
と、偉そうに説明しておりますが!
実はわたくしはさっぱりこれっぽっちも欠片すらなんにも見えません!!
小学校時代にこのステレオグラムを知ってから結構長いこと試してますが、見える兆しすらありません。
実際にどう頑張っても見えない人も少なからずいるそうです。
私もそうですが、両目の視力が大きく違っていたり、乱視が入っているとなかなか簡単には見えないようです。
近しい友人は一瞬で見えていた(らしい)のでもはや適正や才能な気すらしています。。。
あなたには見えますか?
プログラマーから見たあやふやな世界
プログラマーの夫とその妻という設定でこんなジョークがあります。
A wife asks her husband, a programmer, “Could you please go shopping for me and buy one carton of milk, and if they have eggs, get6?”
A short time later the husband comes back with 6cartons of milk and his wife asks “Why did you buy 6 cartons of milk?”
He replies “They had eggs.”
英語原文
妻がプログラマーの夫におつかいを頼んだ。
「牛乳買ってきてくれない?あともし卵があったら6個。よろしくねー。」しばらくして夫が買い物から帰ってきた。
牛乳を6つも抱えて。妻は聞いた。
「なんで牛乳を6つも買ってきちゃったの!?」夫「だって、卵があったから。」
意訳
もしかするとプログラミングを経験した事が無い人はこの話のミソが分からないかもしれませんね。
普通であれば「牛乳を1つと、卵があれば”卵を”6つ」買ってくるのが自然な行動と言えます。
実にたわいもないありふれた日常会話です。
ではなぜプログラム経験者であればクスっときてしまうのか。
プログラミングには
if 〜〜 else 〜〜 という書き方があります。
日本語でも全く同じで「もしであれば〜〜もしそうでなければ〜〜」です。
このジョークをプログラム風に書いてみると。。。
初期値↓;
牛乳の数 = 1;
卵の数 = 0;もし(店に置いている卵の数が(1以上だったら)) {
牛乳の数 = 6;
卵の数 = 0;
} その他にもし(店に置いている卵の数が 0だったら ) {
牛乳の数 = 1
卵の数 = 0;
}買い物をする((牛乳の数)と(卵の数)だけ);
と、こんな感じになるでしょうか。
店に卵が1個でもあったから牛乳を6つ買ってきた!
プログラムとしては非常に素直かつ当然の挙動です。
プログラムは行間が読めません。
所謂KYですが、書いてある事が全てなのです。
ちなみにこの書き方だと卵の数は変動しませんので、
夫はいずれにしても卵を買う事はなかったのでしょうね。
機械だって言語を持っているのだ!
私達が普段話している日本語。
小さい頃から親やその他の人が喋っているのを聞いて
小学校でひらがなやカタカナ更には漢字も含めて、書いたり発音したり学習してきた結果
私達はスムーズに母国語である日本語を何不自由なく理解し、使用しています。
さて、これがもしアムハラ語(エチオピア)やケチュア語(ボリビア等)となるとどうでしょう。
日本語を母国語とする私達ではもはや到底理解できない領域となるでしょう。
YesかNoかも分からない。
ましてや命令かお願いなのかも分からない。
何一つ理解が出来ないまま呆然と立ち尽くしかなくなるのは容易に想像できます。
機械が理解出来る言葉
同様に機械(コンピュータ)にも母国語なるものが存在しています。
その名もまさに「機械語(マシン語)」。
では少しだけ機械語を話していただきましょう。
“00010000 11001101 00110010 00000000
00000001 01110110 00000001
00010000 00010000 00000000 00001000
00010000 00100000 00000000 00001001”
※イメージです
ありがとうございます。
ものの見事に0と1だけです。
これが機械の母国語なのです。
驚くほどに理解不能ですね。
アムハラ語やケチュア語等の外国語もそうだと思いますが、
勿論勉強すれば読み書きや会話はできるようになるでしょう。
しかしそれらをスムーズに出来るようになるには膨大な時間がかかるのは間違いありません。
その上機械には機械語以外を理解しようとする気概はありません。
そんな時に通訳が手助けをしてくれます。
例えば機械に「43+78を計算して」という命令を出すと、通訳が0と1に変換して機械に伝えてくれます。
通訳の活躍により、人間が出す命令を機械に理解してもらい、機械は言われた事を実直に実行します。
ありがたい事です。
でなければ私たちはプログラミングにおいて複雑になっていく命令を
膨大な0と1で構成していかなければなりません。
まず間違いなくすぐに眼精疲労になります。
是非とも!
皆様、物は試し。
せっかくなので機械語に挑戦してみるのはいかがですか?
私は遠慮させていただきます!!!
ロボットは人間の友達となり得るのか
IT技術が進んでいくにつれて、ネット世界の拡大やネットワーク技術の普遍化、
VR(バーチャルリアリティ)といった分野がめまぐるしく進歩していってますね。
それでも空を走る車や宇宙への旅、どこでもドアなんてのはまだまだ空想の世界でのお話ですが、
未来の世界を感じるアイテムの一つである「ロボット」の分野に関しては盛んな
開発と進歩が見てとれるように思います。
その代表格が、現時点では「ペッパー」ではないでしょうか。
ドラえもんのように自身の感情を持って泣いたり笑ったりふざけたり
と自我を持った感情豊かなロボットとまではいかないようですが、
ある程度人間と会話を交わす事が出来るロボットが登場するというのは
少なくとも数十年前どころかあるいは数年前ですら想像が出来なかったのではないでしょうか。
やっぱり人間ではない彼ら
さてそんなロボット達ですが、やはり確固たる市民権を得るには様々な問題があるようです。
よく耳にするのが、所謂映画ターミネータの世界のようにロボット(プログラム)が自我を持ち
人間を敵とみなして攻撃を始めるという恐ろしい話でしょうか。
けれど、それはある意味ロボット技術としては成功している様にも感じます。
プログラムが自分の改善点を見つけ、自分自身を成長させ、自分を守る為に攻撃行動を仕掛けているのでしょうから。
まだ当分そんな世界が来るとは思えませんね。
キカイへの不思議な感情
ロボットへの興味本意と、どこかしらで感じているであろう「その物体」に対する畏怖ともいえる感情。
そんな現象を表す用語として
「不気味の谷現象」というものがあります。
外見と動作が「人間にきわめて近い」ロボットと「人間と全く同じ」ロボットは、見る者の感情的反応に差がでるだろうと予想できる。この二つの感情的反応の差をグラフ化した際に現れる強い嫌悪感を表す谷を「不気味の谷」と呼ぶ。
人間とロボットが生産的に共同作業を行うためには、人間がロボットに対して親近感を持ちうることが不可欠だが、「人間に近い」ロボットは、人間にとってひどく「奇妙」に感じられ、親近感を持てないことから名付けられた。この現象は次のように説明できる。対象が実際の人間とかけ離れている場合、人間的特徴の方が目立ち認識しやすいため、親近感を得やすい。しかし、対象がある程度「人間に近く」なってくると、非人間的特徴の方が目立ってしまい、観察者に「奇妙」な感覚をいだかせるのである。
機械が世界を支配するといった荒唐無稽な話よりも、
むしろこちらの方がロボット分野への直接的な不安・障壁となるのかもしれません。
そもそも人間は見た事ない事柄や自分の頭で理解できない物事を避けたがる傾向にあると思います。
現状のロボットに対しても結局は機械の彼らに対して
「何を考えているか分からない」
「話し方に抑揚がなくて怖い」
などのように、まだまだ馴染みの無い存在故に、どう接すればいいか分からないという
得体の知れない不気味さを我々は何かしら感じている筈です。
確かに、ドラえもんが今まさに目の前に現れたら、果たして素直に受け入れる事が出来るかどうか、、、
甚だ疑問が残るところです。
現実にはありえない、所詮はフィクションの中の登場人物だからと
安心して受け入れられているのは否定できません。
不気味の谷現象については下記のような記述もあります。
不気味の谷の最大の問題は、V字曲線のように本当に感情的反応の肯定が回復するのかという点である。未だ「人間と全く同じ」ロボットが作られたことはなく、本当に完全な人間に近づけば好感度が増すのか、また「人間と全く同じ」になれば好感を持つのかは誰にも分からない。たとえ「人間と全く同じ」だとしても、ロボットだと聞けば不快感を持つ可能性もあり、ロボットが完璧すぎると逆に気味が悪く感じる可能性すらあるのである。
半端にリアルチックでも、見分けが付かないレベルまで進化しても
誰も見た事が無いのだから結局はどうなるか分からないという事ですかね。
しかしペッパーの登場により人間世界へのロボットの浸透は加速度的に進む事が見えてきました。
怖い・気味が悪いで終わらすのではなく、せっかくの可能性に対しては中身を理解しようと試みたり、
逆転の話ですがこちらから歩み寄ってみるというのも必要な選択岐なのかもしれません。
それこそ過度に進化して人間に反逆の意を示すロボットが現れたとしても、
知ると知らないとでは大きな差となり得ることでしょう。
さすがにそんな世界は杞憂であってほしいものですが。。。
Warning: include(/var/www/html/tetraup.com/knocknote.jp/tmpl/aside.html): failed to open stream: No such file or directory in /var/www/html/tetraup.com/news_topics/wp-content/themes/news/archive.php on line 24
Warning: include(): Failed opening '/var/www/html/tetraup.com/knocknote.jp/tmpl/aside.html' for inclusion (include_path='.:/usr/share/pear7:/usr/share/php') in /var/www/html/tetraup.com/news_topics/wp-content/themes/news/archive.php on line 24