📰Today’s article
Title
Warnings from AI Safety Experts
AI安全性の専門家たちからの警告
Article
| English | Japanese |
| An AI safety researcher named Mrinank Sharma has left the American firm Anthropic. In his resignation letter, Sharma gave a cryptic warning that the “world is in peril.” He expressed serious concerns about AI, bioweapons, and other global crises. Sharma now plans to return to the UK to study poetry and “become invisible” for a while. | Mrinank Sharmaという名のAI安全性研究者が、アメリカの企業Anthropicを去りました。辞職願の中で、Sharmaは「世界は危機に瀕している」という謎めいた警告を発しました。彼はAIや生物兵器、その他の世界的危機について深刻な懸念を表明しました。Sharmaは現在、詩を学び、しばらくの間「姿を消す」ためにイギリスに戻ることを計画しています。 |
| Anthropic was started by former OpenAI employees to focus on AI safety. Sharma led a team that researched safeguards, including risks of bioterrorism. However, he claimed that even Anthropic faces pressures to “set aside what matters most.” He feels it is difficult to let values govern actions, leading to his decision to move on from the firm. | Anthropicは、AIの安全性に焦点を当てるために元OpenAIの従業員によって設立されました。Sharmaはバイオテロのリスクを含む安全策を研究するチームを率いていました。しかし、彼はAnthropicでさえ「最も重要なことを後回しにする」圧力に直面していると主張しました。彼は価値観に行動を支配させることが困難であると感じており、それが同社を去る決断につながりました。 |
| This resignation happened in the same week that Zoe Hitzig, a researcher at OpenAI, also quit. Hitzig expressed “deep reservations about OpenAI’s strategy,” especially the decision to put adverts in their chatbot. She worried that advertising could lead to an “erosion of OpenAI’s own principles” and might be used to manipulate users in very dangerous ways. | この辞職は、OpenAIの研究者であるZoe Hitzigも辞めたのと同じ週に起こりました。Hitzigは「OpenAIの戦略に対する深い懸念」、特にチャットボットに広告を掲載するという決定について表明しました。彼女は、広告が「OpenAI自身の原則の浸食」につながり、非常に危険な方法でユーザーを操作するために使用される可能性があることを懸念していました。 |
| Anthropic has often criticized OpenAI’s move toward advertising. Although Anthropic calls itself a “public benefit corporation,” it has also faced its own problems. For example, in 2025, the company agreed to pay $1.5 billion to settle a lawsuit. Authors claimed that Anthropic stole their work to train its AI models, which increased scrutiny of its practices. | Anthropicはしばしば、広告へと向かうOpenAIの動きを批判してきました。Anthropicは自らを「共益法人」と呼んでいますが、同社も独自の問題に直面しています。例えば2025年、同社は訴訟を解決するために15億ドルを支払うことに同意しました。著者たちは、AnthropicがAIモデルを訓練するために彼らの作品を盗んだと主張し、同社の慣行に対する監視が強まりました。 |
| The AI industry continues to grow, but these departures highlight the tension between profit and safety. While bosses like Sam Altman defend their strategies, researchers are raising alarms about the future. Sharma believes that multiple interconnected crises are unfolding right now. For these experts, protecting human values seems more important than the current boom in generative AI. | AI業界は成長し続けていますが、これらの離職は利益と安全性の間の緊張を浮き彫りにしています。Sam Altmanのような経営者たちが自らの戦略を擁護する一方で、研究者たちは未来について警鐘を鳴らしています。Sharmaは、相互に関連した複数の危機が今まさに進行中であると信じています。これらの専門家にとって、人間の価値観を守ることは、現在の生成AIのブームよりも重要であるようです。 |
📘Vocabulary
- peril – noun
- Meaning: great danger, or something that is very dangerous
- Example: The report warns that the world is in peril due to climate change.
- 意味: 大きな危険、または非常に危険なもの
- 例文: その報告書は、気候変動のために世界が危機に瀕していると警告している。
- cryptic – adjective
- Meaning: having a meaning that is mysterious or obscure
- Example: He left a cryptic message on the board that no one understood.
- 意味: 神秘的な、あるいは不明瞭な意味を持つ
- 例文: 彼は誰も理解できない謎めいたメッセージを掲示板に残した。
- reservation – noun
- Meaning: a feeling of doubt or lack of confidence about a plan or idea
- Example: She expressed reservations about the new project because of the cost.
- 意味: 計画やアイデアに対する疑念や確信のなさ
- 例文: 彼女は費用の面から、新しいプロジェクトに対して懸念を表明した。
- manipulate – verb
- Meaning: to control or influence a person or situation in a clever or dishonest way
- Example: Advertisements are often designed to manipulate people’s emotions.
- 意味: 人や状況を巧妙または不誠実な方法で操る、または影響を与える
- 例文: 広告はしばしば人々の感情を操作するように設計されている。
- scrutiny – noun
- Meaning: the careful and detailed examination of something
- Example: The company’s financial records came under close scrutiny by the government.
- 意味: 物事に対する注意深く詳細な調査
- 例文: その会社の財務記録は政府による厳重な監視の対象となった。
📝Let’s summarize
| Summary | 要約 |
| AI safety researchers Mrinank Sharma and Zoe Hitzig recently resigned from Anthropic and OpenAI. They warned that profit-driven strategies and advertising could harm human values and safety, highlighting the growing tension within the industry. | AI安全性の研究者であるMrinank SharmaとZoe Hitzigが最近、AnthropicとOpenAIを辞職しました。彼らは、利益を追求する戦略や広告が人間の価値観や安全を損なう可能性があると警告し、業界内で高まる緊張を浮き彫りにしました。 |
| [Word Count: 38 words] |
❓Comprehension Questions
Q1: Why did Mrinank Sharma decide to leave the American firm Anthropic?
A. He wanted to focus on writing poetry and studying literature in the United Kingdom.
B. He felt that the company was being pressured to ignore the most important values.
C. He was unhappy because the company decided to put advertisements in their new chatbot.
D. He was involved in a legal problem regarding the use of authors’ creative works.
問1: なぜMrinank Sharmaはアメリカの企業Anthropicを去る決断をしたのですか?
Correct answer: B
正解選択肢: 彼は、会社が最も重要な価値観を無視するように圧力を受けていると感じた。
該当文: However, he claimed that even Anthropic faces pressures to “set aside what matters most.”
Q2: What was the specific reason Zoe Hitzig expressed concerns about OpenAI’s strategy?
A. She believed that the firm should focus more on the risks of bioterrorism.
B. She thought that the company was losing its original focus on AI safety.
C. She was worried that the firm’s growth was causing too much global tension.
D. She felt that using advertisements could lead to dangerous manipulation of users.
問2: Zoe HitzigがOpenAIの戦略について懸念を表明した具体的な理由は何ですか?
Correct answer: D
正解選択肢: 彼女は、広告を使用することがユーザーの危険な操作につながる可能性があると感じた。
該当文: She worried that advertising could lead to an “erosion of OpenAI’s own principles” and might be used to manipulate users in very dangerous ways.
Q3: What legal issue did Anthropic face in the year 2025?
A. The company was sued for using writers’ work without permission for AI training.
B. The firm was accused of criticizing the advertising strategies used by its competitors.
C. It failed to maintain its status as a corporation that provides public benefits.
D. It was forced to close its research team focused on safeguards against bioweapons.
問3: 2025年にAnthropicはどのような法的問題に直面しましたか?
Correct answer: A
正解選択肢: 同社は、AIの訓練のために作家の作品を無断で使用したとして訴えられた。
該当文: Authors claimed that Anthropic stole their work to train its AI models, which increased scrutiny of its practices.
💬Today’s your thoughts
Question
Do you think that AI companies should prioritize safety over making profits?
AI企業は利益を上げることよりも安全性を優先すべきだと思いますか?
Model Answer – 1(肯定的立場)
| English | Japanese |
| I strongly believe that AI companies should prioritize safety because AI technology can cause global crises. | AI技術は世界的な危機を引き起こす可能性があるため、AI企業は安全性を優先すべきだと強く信じています。 |
| To begin with, uncontrolled AI development can lead to serious risks for human society. If safety is ignored, AI models might be used by criminals to create dangerous bioweapons. This shows that focusing only on profit can put everyone in peril. | まず、抑制のないAI開発は人間社会に深刻なリスクをもたらす可能性があります。もし安全性が無視されれば、AIモデルは犯罪者によって危険な生物兵器を作るために悪用されるかもしれません。これは、利益だけに焦点を当てることが全員を危険にさらす可能性があることを示しています。 |
| Moreover, advertising in AI tools can manipulate users in harmful ways. For instance, an AI might suggest wrong information to sell products, which could erode people’s trust in technology. As a result, users could be misled by biased information. | さらに、AIツールにおける広告は、有害な方法でユーザーを操作する可能性があります。例えば、AIが製品を売るために誤った情報を提案し、それがテクノロジーに対する人々の信頼を損なうかもしれません。結果として、ユーザーは偏った情報に惑わされる可能性があります。 |
| In conclusion, I think safety must come first. By protecting human values, companies can ensure a safer future for everyone. This is more important than short-term financial success in the industry. | 結論として、安全性が第一であるべきだと思います。人間の価値観を守ることによって、企業はすべての人にとってより安全な未来を確保できます。これは、業界における短期的な経済的成功よりも重要です。 |
| [Word Count: 122 words] |
Model Answer – 2(否定的立場)
| English | Japanese |
| I disagree with the idea that AI companies must always prioritize safety over making any profits. | AI企業が常に利益を上げることよりも安全性を優先しなければならないという考えには反対です。 |
| Firstly, companies need huge amounts of money to develop better and safer AI technologies. Without profit, firms cannot pay for the researchers and computers required to study complex safeguards. For example, high costs often prevent small startups from succeeding. | 第一に、企業がより良く、より安全なAI技術を開発するためには、巨額の資金が必要です。利益がなければ、複雑な安全策を研究するために必要な研究者やコンピュータの費用を支払うことができません。例えば、高いコストが小規模なスタートアップの成功を妨げることがよくあります。 |
| In addition, competition in the market encourages rapid innovation and growth. If a company focuses too much on safety, it may lose its position to competitors from other countries. This shows that maintaining a balance is necessary to survive in the global industry. | 加えて、市場での競争は急速な革新と成長を促します。もし企業が安全性に集中しすぎれば、他国の競合他社に地位を奪われるかもしれません。これは、グローバルな業界で生き残るためにはバランスを維持することが必要であることを示しています。 |
| To conclude, while safety is important, profit is also essential for progress. Companies should find a way to achieve both financial success and security. This approach will lead to more sustainable development in the future. | 結論として、安全性は重要ですが、進歩のためには利益も不可欠です。企業は経済的成功と安全性の両方を達成する方法を見つけるべきです。このアプローチが、将来のより持続可能な発展につながるでしょう。 |
| [Word Count: 119 words] |
News Source: BBC News
https://www.bbc.com/news/articles/c62dlvdq3e3o
