📰Today’s article
Title
UK Regulator Proposes Tougher Online Safety Rules
英国規制当局がより厳格なオンライン安全規則を提案
Article
English | Japanese |
---|---|
Tech firms that host content could soon be required to stop illegal posts from spreading and curb tools letting people send virtual gifts to, or record, a child’s livestream. These ideas appear in a consultation that the UK regulator Ofcom published on Monday to gather views on stronger online-safety rules. | コンテンツを提供するテック企業は、違法投稿の拡散を防ぎ、子どものライブ配信にバーチャルギフトを送ったり録画したりする機能を制限するよう求められる可能性がある。これらの提案は、より厳格なオンライン安全規則に関する意見を集めるために、英国の規制当局Ofcomが月曜日に発表した協議文書に示されている。 |
Oliver Griffiths, head of Ofcom’s online-safety group, said the plan builds on existing rules but must keep pace with “constantly evolving” risks. “We’re holding platforms to account and acting quickly when we see problems, yet harms keep changing, so we must make life safer online,” he explained. | Ofcomのオンライン安全部門責任者であるオリバー・グリフィス氏は、この計画は既存の規則を基にしているが、「常に進化する」リスクに対応する必要があると述べた。「我々はプラットフォームに責任を持たせ、問題を見つけたときには迅速に対応しているが、被害の形は変わり続けている。だからこそ、オンラインをより安全な場所にしなければならない」と説明した。 |
The document names three priorities: stopping illegal content going viral, tackling harms at source, and giving children extra protection. Ofcom says any service offering one-to-many livestreams must let viewers report broadcasts showing an imminent risk of physical harm. It also asks the biggest platforms to consider tools that automatically detect terrorist material. | この文書では3つの優先課題が示されている:違法コンテンツの拡散防止、被害の根本対処、そして子どもへの追加保護である。Ofcomは、一対多数のライブ配信を提供するサービスは、視聴者が身体的危害の差し迫ったリスクがある放送を通報できるようにすべきだと述べている。また、大手プラットフォームに対しては、テロ関連のコンテンツを自動で検出するツールの検討を求めている。 |
In 2022 TikTok raised the livestream age limit from 16 to 18 after a BBC inquiry saw children in Syrian refugee camps begging for donations. YouTube will move its own limit to 16 on 22 July. Critics call these steps mere “sticking plasters” that leave deeper issues untouched. | 2022年、TikTokはBBCの調査でシリア難民キャンプの子どもたちが寄付を求めている様子が確認されたことを受け、ライブ配信の年齢制限を16歳から18歳に引き上げた。YouTubeも7月22日に独自の年齢制限を16歳に引き上げる予定だ。批判者たちは、これらの措置を「絆創膏」にすぎず、より深刻な問題には手を付けていないと指摘している。 |
Ian Russell of the Molly Rose Foundation said rules must tackle every risk, not just the self-harm content that harmed his daughter. Leanda Barrington-Leach of 5Rights urged firms to design products with child safety in mind, while the NSPCC’s Rani Govender welcomed stronger livestream safeguards. | モリー・ローズ財団のイアン・ラッセル氏は、自傷コンテンツだけでなく、すべてのリスクに対処する規則が必要だと述べた。5Rightsのリアンダ・バリントン=リーチ氏は、企業が子どもの安全を考慮した製品設計を行うよう求め、NSPCCのラニ・ゴヴェンダー氏は、ライブ配信に対するより強力な保護策を歓迎した。 |
The consultation is open until 20 October 2025, and Ofcom wants feedback from service providers, civil society, law-enforcement bodies, and ordinary users. The BBC has approached TikTok, livestreaming platform Twitch, and Meta – which owns Instagram, Facebook and Threads – for comment. | 協議は2025年10月20日まで受け付けられており、Ofcomはサービス提供者、市民団体、法執行機関、一般ユーザーからの意見を求めている。BBCは、TikTok、ライブ配信プラットフォームのTwitch、そしてInstagramやFacebook、Threadsを所有するMetaにコメントを求めた。 |
📘Vocabulary
- curb – verb
- Meaning: to limit or control something
- Example: The government plans to curb online hate speech.
- 意味: 何かを制限する、抑える
- 例文: 政府はオンライン上のヘイトスピーチを抑える計画を立てている。
- consultation – noun
- Meaning: a process of asking for opinions before making a decision
- Example: The new law was discussed during a public consultation.
- 意味: 意思決定前に意見を求める過程
- 例文: 新しい法律は公開協議の中で議論された。
- tackle – verb
- Meaning: to try to deal with a problem
- Example: We need to tackle the root causes of the issue.
- 意味: 問題に取り組む
- 例文: 私たちはこの問題の根本原因に取り組む必要がある。
- safeguard – noun
- Meaning: a rule or action that protects something
- Example: The new policy includes several safeguards for children.
- 意味: 何かを守るための規則や措置
- 例文: 新しい方針には子どもを守るためのいくつかの保護策が含まれている。
- approach – verb
- Meaning: to ask someone for something or to deal with something
- Example: The reporter approached the company for a comment.
- 意味: 何かを求めて誰かに接触する、または取り組む
- 例文: 記者はコメントを求めてその企業に接触した。
📝Let’s summarize
Summary | 要約 |
---|---|
Ofcom released a consultation suggesting that tech firms stop illegal posts, protect children in livestreams, and detect harmful content. It calls for more reporting tools, higher age limits, and feedback from stakeholders. | Ofcomは、テック企業に違法投稿の防止、子どもが出演するライブ配信の保護、有害コンテンツの検出を求める協議を発表した。通報機能の強化や年齢制限の引き上げ、関係者からの意見募集も呼びかけている。 |
[Word Count: 37 words] |
❓Comprehension Questions
Q1: What kind of livestreams must allow viewers to report physical risks?
A. Any service offering live chats with friends.
B. Any service offering one-to-many livestreams.
C. Any service using recorded video content.
D. Any service allowing user-generated stories.
問1: どのようなライブ配信が身体的危害の通報機能を備えるべきとされているか?
Correct answer: B
正解選択肢: 一対多数のライブ配信を提供するサービス
該当文: “any service offering one-to-many livestreams must let viewers report broadcasts showing an imminent risk of physical harm.”
Q2: What change did TikTok make in 2022 regarding livestreams?
A. It banned livestreaming from refugee camps.
B. It raised the livestream age limit to 18.
C. It allowed children under 16 to livestream.
D. It partnered with the BBC for livestream safety.
問2: TikTokが2022年に行ったライブ配信に関する変更は何か?
Correct answer: B
正解選択肢: ライブ配信の年齢制限を18歳に引き上げた
該当文: “In 2022 TikTok raised the livestream age limit from 16 to 18 after a BBC inquiry…”
Q3: Who welcomed stronger livestream safeguards?
A. Oliver Griffiths
B. Ian Russell
C. Rani Govender
D. Leanda Barrington-Leach
問3: ライブ配信のより強力な保護策を歓迎したのは誰か?
Correct answer: C
正解選択肢: ラニ・ゴヴェンダー
該当文: “the NSPCC’s Rani Govender welcomed stronger livestream safeguards.”
💬Today’s your thoughts
Question
Do you think tech companies should be responsible for preventing harm in children’s livestreams?
テック企業は子どもによるライブ配信での被害を防ぐ責任があると思いますか?
Model Answer – 1(肯定的立場)
English | Japanese |
---|---|
I believe tech companies should take responsibility for preventing harm in children’s livestreams. | テック企業は、子どものライブ配信での被害を防ぐ責任を負うべきだと思います。 |
Firstly, these companies provide the platforms where such content is shared, so they must ensure it is safe. If they ignore harmful content, children may be put at serious risk. For instance, livestreams from refugee camps show how easily children can be exploited. | 第一に、こうした企業はコンテンツが共有されるプラットフォームを提供しているのだから、安全を確保する責任がある。彼らが有害なコンテンツを無視すれば、子どもたちは深刻な危険にさらされる可能性がある。例えば、難民キャンプからのライブ配信は、子どもがいかに簡単に搾取され得るかを示している。 |
Secondly, companies have access to advanced technology that can detect harmful behavior. If they design their services with child safety in mind, they can prevent many incidents. I think ethical design is essential for any online platform. | 第二に、企業は有害な行動を検知できる高度な技術を持っている。もし子どもの安全を考慮してサービスを設計すれば、多くの問題を未然に防ぐことができる。どのオンラインプラットフォームにおいても倫理的な設計は不可欠だと考える。 |
In conclusion, tech firms must act responsibly and use their tools to protect children. This will create a safer and more trustworthy internet environment. | 結論として、テック企業は責任を持って行動し、持っているツールを使って子どもを守るべきだ。それがより安全で信頼できるインターネット環境を生むだろう。 |
[Word Count: 104 words] |
Model Answer – 2(否定的立場)
English | Japanese |
---|---|
I do not think tech companies alone should be responsible for preventing harm in children’s livestreams. | 子どものライブ配信における被害を防ぐ責任を、テック企業だけに負わせるべきではないと思う。 |
Firstly, parents and guardians must play a key role in monitoring what their children do online. Companies cannot control everything, and families know their children best. For instance, some parents allow risky behavior without fully understanding the consequences. | 第一に、親や保護者は、子どもがオンラインで何をしているかを監視する重要な役割を果たすべきだ。企業にはすべてを管理することはできないし、家族こそが子どもを一番理解している。例えば、親の中には、結果を十分に理解しないまま危険な行動を許してしまう人もいる。 |
Secondly, users themselves need to learn how to behave responsibly online. Education on digital safety should be part of school programs. If everyone takes part, including teachers and law enforcement, online harm can be reduced. | 第二に、ユーザー自身もオンラインで責任ある行動を学ぶ必要がある。デジタル安全に関する教育は学校の教育課程に含めるべきだ。教師や警察なども含め、全員が関与すれば、オンライン上の被害は減らせるはずだ。 |
In conclusion, while tech companies have a role, preventing harm requires shared responsibility from families, schools, and society as a whole. | 結論として、テック企業にも役割はあるが、被害を防ぐには家族・学校・社会全体の共同責任が必要だ。 |
[Word Count: 102 words] |
News Source: BBC News
https://www.bbc.com/news/articles/cgrxxyy2v1jo