読者です 読者をやめる 読者になる 読者になる

マインクラフトで英語!

How do we get to speak English? The simple answer is here.

B.Q.R. J-69 『機関銃英語が聞き取れる』

『機関銃英語が聞き取れる』上川一秋 ジーナ・ジョージ著

 

なぜ、日本人はこんなに英語の聞き取りが苦手なのでしょうか?本書は、この疑問への解答です。実は、答えは驚くほど簡単です。「シラブル(音節)」と「ビート」という2つのことを知らないのが原因なのです。 

 

  英語のハウツー本の類の書籍を読んで、こうして引用しながら記事を投稿しているのにはいくつか理由があって、そのうちの一つに、英語をしゃべりはじめることができるようになった自分自身の体験=方法にどれくらい妥当性があるのかってことを検証してみたいってことがあったんだけど、語学学習の大きな方向性のようなものからごく限られた範囲の分析的な結論に至るまで、意外なほどにその共通項が見えつつあって面白い、と思うのと同時に、こういう実際の体験に基づいた共通項の抽出っていうのは(一見もっともらしく見えてその実なんら経験的な根拠のない推測的著述とは違って)それを集めていくと、これから英語(に限らず外国語)をしゃべれるようになりたいっていう人にとってなんらかの有益な指針になるんじゃないかと思ってる。

  例えばこのシラブル(音節)については以前投稿した記事があって......

 

espinmc.hatenablog.com

 その記事で、"音節のことをちょっと理解しておくと、listeningとspeakingの学習がずいぶん変わるんじゃないかな" っていうようなことを自分自身の体験から推測的に書いてみたことがあったんだけど、こうして自分自身の経験的な推測とほぼ一致するような著書に出会うたびに、英語をしゃべりはじめたその自分自身の体験=方法が単に偶然的なものじゃなくて、ある程度妥当性を持った方法として提示できるようになるんじゃないかと、そう思っている。

  ただ、このシラブルとビートっていうのは、結果的には確かに日本語と英語でだいぶ違うってことは言えるんだけど、それはあくまでも言語を(ある意味)分析したその結果なんであって、じゃあどうするのかっていうことになるとそれはそれで話は全く別というか、その結果をある種演繹的に応用してリスニングなりスピーキングなりに生かせるかっていうとおそらくそれは難しいというか、あまりうまくないと思う。なんていうか、こういうのってたぶん言語学習全般にいろんなレベルで言えることなんだけど、ある言語を分析して、そこに見いだせる共通項をルールとして抽出して、その共通項としてのルールを教育的に習得させて、そのルールによってこんどは逆に演繹的に言語を扱っていく、っていうのは、一見理にかなった合理的な方法のようにも見えるんだけど、現実的にはうまくいかない、っていうか実際うまくいってないと思うんだよね。

  って書きながらちょっと思ったのが、最近流行りの "Pokemon Go" じゃなくて、今年3月に、世界最強って言われてる韓国の囲碁棋士=イ・セドルに勝利したコンピュータプログラムの "AlphaGo"だ。

  これは、現在はアメリカGoogleの傘下になってるGoogle Deepmindっていう研究部門が開発したコンピュータプログラムで、なんでも "ニューラル・ネットワーク" なる第3の人工知能=AIを搭載した最先端の囲碁コンピュータプログラムらしい。「第3の」っていうのは、この人工知能=AIってもう1950年代から開発が始まってるかなり歴史のあるものらしいんだけど、実は50年代と80年代にもう既に2回盛り上がってて、でもなんだかんだで「これって無理そうだよね」ってことになってしばらく下火になって、でも21世紀になる辺りからまた盛り上がりを見せるようになってこれが3度目の正直(っていうんじゃないんだけど)どうやら第3次人口知能ブームなんて呼ばれてるらしいのだ。

  ところで、過去にその開発が下火になっちゃった「なんだかんだ」の理由の1つが、クラウドからAIへ アップル、グーグル、フェイスブックの次なる主戦場 (朝日新書)

にこう書かれている。

文法のようなルールをコンピュータに植え付けるという当初のアプローチが限界に達し、70年代から90年代にかけて「AIの冬」と呼ばれる低迷期を何度か経験しました。

  つまり、実は人工知能の開発っていう最先端の分野では、もう何十年も前に、この種の「ルールを教育的に習得してそれを使って様々に応用していく」式の学習はうまくいかないってことが既に分かってたわけなんだよね。

  じゃあなんで最近になってまた人工知能=AIが注目され始めたのかっていうと、それについては

Newsweek (ニューズウィーク日本版) 2016年 5/17 号 [人工知能は人間を超えたか]

にこんな記事があった。

例えば動物の顔を識別する場合、以前なら人間が画像識別用のアルゴリズムを作成してAIに教え込む必要があった。しかし今ではAIに大量の画像データを読み込ませるだけで犬と猿を識別するための法則をAI自身が導き出せるようになった。

  つまり、文法のようなルールや法則をコンピュータに教え込むんじゃなくて、コンピュータ自らがその法則を導き出す、そんなような学習プロセスを採るようになったと。それによって従来のAIとは違って、現実世界のそれこそいろんな問題に「柔軟に」対応できるようになったという(例えばSiriとかGoole NowとかCortanaなんかの音声認識システムって、普段我々が日常会話で使うちょっと崩れたような自然な言語にも認識対応できるようになってる。いや、使ったことないんだけどさ)。

  なんだか書いてるうちに面白くなってきたな。でも、なんか引用した "音節" の話からだいぶ、っていうかもうすでに内容が変わっちゃってるし、とりとめなくなりそうだから、この人工知能=AIの話はまた別の記事でいろいろ引用しながら書いて見ることにしよう。

  ともあれ、この第3次人工知能ブームのコアになってる "ニューラル・ネットワーク" って、よく脳科学なんかの話で耳にする "ニューロン" だとか "シナプス" なんかの「人間の脳そのもの」の構成をモデルにしてるらしいんだけど、それって要するに、人間の脳ってそれこそ最先端の、っていうかほぼ最終形のある意味AIなわけだから、この人工知能の研究って、その応用=各種コンピュータの開発だけじゃなくて、そもそもその研究自体が人間の脳の仕組みの解明に大きく寄与することは間違いないだろうし、おそらく早晩(いやもう既に?)その仕組みのうちの1つである「言語習得」のカギなんかも明らかになるんだろう。私見によれば、それによって導き出される語学学習の方法は(斬新なものが提示されうるにしても)、すでに見た過去記事にも書いたような、 "まあ、音を真似できればそれで済む話なんだけどさ。" くらいシンプルなものになるはずだ。

 

機関銃英語が聴き取れる!-リスニングの鍵はシラブルとビート-

機関銃英語が聴き取れる!-リスニングの鍵はシラブルとビート-