Wednesday, May 22, 2013

TOEFL: Reading対策② 導入、展開、結び

前回(http://midnightenglishschool.blogspot.com/2013/06/toefl-reading.html)とまた違う角度から、英語の文章の構造を紹介しようと思います。Voice of America というアメリカの国営放送局の記事を紹介します(インターネットラジオ、YoutubeやPodcastを使ってニュースやプロパガンダを流しているサイトですが、TOEFL学習にはとても有益です)。

TOEFLのReadingでは、科学、地理や歴史などの分野に関する文章(約800語)をもとにして12~14問の問いを解く文章問題が出てきます。初めの文章問題を20分以内に、その後にさらに2問を40分で解くことになります。文章を読み進めながら問題を解いていけるので、始めに全て読み通す必要はありません。しかし、1問に2分もかけられないので、効率的な回答をしなければいけません。

英語の論文には必ず明確な流れ序論・本論・結論があります。文章の構造を意識して読むことで、筆者の主張を素早く、的確にとらえるようにしましょう。前回のWhat? How? Why?を意識して筆者の主張を理解する読み方と共に、今回は、構造を意識して読む訓練をします。





1.序論=導入部分
筆者が何を話題にし、主張しているかを素早く探し出し、その後の内容を推測できるようにしましょう。
2.本論=展開部分
筆者の主張の根拠を見つけます。TOEFLの問題では、細かい点で理解が出来ているか問われるので、どのように根拠が導かれるのかを理解するようにしてください。
3.結論=結び
最後に全体をまとめて主張を繰り返す部分ですので、自分の理解が合っているかを確かめることができます。この部分を基に、読んでいて分からなかった根拠の内容を逆算して把握することもできます。

さて、今日は試しにVOAのこちらのニュース記事 "Demand Grows for Glabal Ban on 'Killer Robots'"を読んでみましょう(http://www.voanews.com/content/demand-grows-for-global-ban-on-killer-robots/1667710.html約570語)。

*この記事はリンク先ページの上部にあるビデオを解説しているので、ビデオを先に見てから英文の記事を読んでみましょう。若干英語の内容が違う部分がありますが、流れは同じです。Listeningの訓練だと思ってください。


序論
United Nations’ special rapporteur on executions has joined calls for a moratorium on so-called ‘killer robots’ - automated weapons systems which critics fear may one day operate independently from human commanders
この冒頭の文では、「国連の特別審査委員が、殺人ロボット(批評家達が、人間の命令を聞かずに動いてしまうかもしれないと危惧する自動兵器システム)に停止(moratorium)を求めている」と書かれています。
さて、この記事はどのように展開するでしょうか?殺人ロボットの危険性?有用性?解決策?倫理観?こういったキーワードが想像が出来たでしょうか?よっぽどの軍事賛成派でない限り、こうした話題は反対意見が書かれていると思いますので、そう予想して本論を読んでいきましょう。

本論
イギリスで起こったデモ参加者の怒り声を例に出し、らの主張を皮切りにが進んでいきます。
過去にノーベル平和賞を受賞した Jody Williams は、戦争の形態を完全に変えてしまったテクノロジーに関する議論が必要だと訴えます。
There has to be discussion about technology that will totally transform war. 

続いて、人口知能とロボット工学の教授Noel Sharkeyがドローンという最新鋭の無人航空機について言及しています。彼は攻撃の決定は機械でなく、人間がすべきであると主張します。
So we need proper human supervision to select the targets and engage them

しかし、こうした最新鋭の機械は人間の誤信(fallacy)を戦場からなくすことが出来るという理由から(人間の関与しない兵器の)賛成者もいます。
But supporters argue that technology like drones can eliminate human fallacy from the battlefield.

Warrior Geeksの作者であり、教授のChristopher Cokerは兵器の監視(oversight)はターゲットの行動の特徴をとらえて攻撃するが、そのターゲットが実際に何なのかを把握しないために付帯的 損害(collateral damage)があると言及します。

Noel Sharkeyが再び出てきて、ロボットは人間と違い倫理的ではない。責任は誰がとるのか?と疑問を投げかけます。

結論
次の文からまとめに入ります。
Campaigners say there is huge interest from industrial corporations in developing so-called killer robots.
The U.N.’s special rapporteur on executions has joined calls for a moratorium on their deployment.

産業界からは大きな関心がもたれていると活動家は指摘する。国連の審議官は殺人ロボットに関しての開発停止を求めている。


このニュース記事は、様々な立場の声(主に殺人ロボットに反対する)を紹介し、国連の特別審査官が兵器ロボットの開発に停止を求めるのは何故かを説明しています。論文と違って、明確な根拠や流れはとらえにくいですが、

「無人兵器の人間の誤信をなくす有用性に賛成する人々もいるが、誰が攻撃対象を決定するのか、(誤爆等の)無関係な犠牲に対する危険性の責任はだれがとるのかといった倫理的問題は解決できず、無人兵器を開発すべきではない。」

とまとめることが出来るでしょうかね。新聞やニュースの記事は、今回の文章のように様々な意見を取り入れるため、展開の部分で根拠が明確でないことがありますが、何となく導入、展開、結びの構造が分かったでしょうか?ちなみに、途中で兵器開発賛成派の意見を紹介し、それに反論(refutation)をするのは、Writingでも使えるテクニックです。

今日はこれで終わりです。ビデオでListeningの練習もしてみてください。

今後の参考にしたいと思いますので、ぜひ質問や感想がありましたらコメントしてください。今回の記事に限らず、留学に関して全般的な質問も受け付けています。

No comments:

Post a Comment