[41] Which of the following most likely represents the opinion of the researchers?
- Self-driving cars will improve road safety.
- Self-driving cars are too dangerous to be legal.
- The market for self-driving cars is small.
- Humans cannot be trusted with self-driving cars.
・正答 : 1
・正答の理由 : 研究者たちは、自動運転車が交通の安全性を向上させる可能性を示唆しています。本文では、自動運転車が交通事故を減らし、汚染を削減し、毎年何千もの命を救う可能性があると述べています。これは、人間のミスが全ての交通事故の90%を占めることを考慮すると、特に重要です。「研究によると、自動運転車は交通量を減らし、汚染を削減し、毎年何千もの命を救う可能性がある」という部分が、この答えの根拠となります。
・不正解の理由:
2: 自動運転車が合法であるべきではないという危険性についての言及はありません。
3: 自動運転車の市場が小さいという内容は本文には含まれておらず、むしろその開発が進めば多くの利点があると述べています。
4: 人間が自動運転車を信用できないという意見は、研究者たちの意見としては直接示されていません。むしろ、自動運転車の道徳的・倫理的判断に関する議論があります。
[42] Which of the following is an example of the “trolley problem?”
- A group of people on a life raft with too many people must vote on which person must get out in
order to keep the raft afloat.
- Firefighters must choose between rescuing a famous scientist from the 4th floor of a burning
research building or rescue her students from the 1st floor.
- An airline pilot must choose between making an emergency landing on a highway with many cars
on it or an unoccupied river.
- Members of a jury must decide on whether a murderer should spend his life in prison, or receive the death penalty.
・正答 : 2
・正答の理由 : 「トロリー問題」とは、一群の人々を救うために一人を犠牲にするか、またはグループを犠牲にして個人を守るかを選択しなければならない倫理的思考実験です。本文では、トロリー問題のバリエーションとして、燃えている建物から有名な科学者を救うか、または彼女の学生を1階から救うかというシナリオが挙げられています。これは、グループと個人の安全の間で選択を迫られる状況を示しています。
・不正解の理由:
1: ライフラフトの例は、トロリー問題の典型的なシナリオとは異なります。
3: 緊急着陸の選択は、トロリー問題の核心である道徳的ジレンマと直接関連していません。
4: 陪審員による判断は、トロリー問題とは異なる種類の倫理的決定を必要とします。
[43] Which of the following most likely represents Ragunathan Rajkumar’s opinion on ethics in artificial intelligence (AI)?
- Al researchers must be careful to program good ethics into their machines.
- AI technology will make the study of ethics obsolete.
- The decisions of AI are always the most ethical by design.
- Ethics are not considered in the decisions made by AI technologies.
・正答 : 4
・正答の理由 : ラグナタン・ラジクマール教授は、AIが人間と同じ認知能力を持たないと指摘しています。彼は、「AIは我々人間が持つ同じ認知能力を持っていない」と述べており、これはAIが倫理的な判断を下すプロセスにおいて、倫理が考慮されていないことを意味します。
・不正解の理由:
1: AIに良い倫理をプログラムする必要があるという意見は、ラジクマール教授の発言からは直接導かれません。
2: AI技術が倫理学の研究を時代遅れにするという意見は本文には含まれていません。
3: AIの決定が常に最も倫理的であるという意見は、ラジクマール教授の指摘と矛盾します。
[44] According to the 6th paragraph, which of the following problems facing driverless cars is the most important?
- Regulatory hurdles.
- Technological development.
- Moral quandaries.
- Social acceptance.
・正答 : 2
・正答の理由 : 本文は、自動運転車が直面する最も重要な問題として技術開発を挙げています。これは、自動運転車が状況を迅速に処理し、危険な状況を避けるために必要なデータを収集し、処理することが主な挑戦であることを示しています。
・不正解の理由:
1: 規制の障害は、技術的な開発ほど直接的には問題とされていません。
3: 道徳的な問題は重要ですが、技術的な問題が最も重要であるとされています。
4: 社会的受容は重要な問題ですが、技術的な問題が本文で最も強調されています。
[45] Which of the following would be the best title for this article?
- The Future is Bright for Driverless Cars
- Flawed Understanding of Al Abounds
- Driverless Cars Will Face Moral Dilemmas
- The Trolley Problem’s Move to Cars
・正答 : 3
・正答の理由 : 本文の主なテーマは、自動運転車が直面する道徳的ジレンマに焦点を当てています。これは、自動運転車が乗客と歩行者の安全の間で選択を迫られるような状況でどのように行動すべきかについての議論を含んでいます。そのため、「Driverless Cars Will Face Moral Dilemmas」というタイトルが最も適切です。
・不正解の理由:
1: 自動運転車の将来性については楽観的ですが、本文の主な焦点ではありません。
2: AIの誤解について触れていますが、これは本文の主題ではありません。
4: トロリー問題は本文で議論されていますが、それが主題の全てではありません。
コメントを残す