【フォトアングル】安保法制成立以来、96回目の19日行動=東京・衆議院第2議員会館前、酒井憲太郎撮影 

2 months 1 week ago
2015年9月19日安保法制強行成立以来、廃止を求めて96回目の19日行動。主催は戦争させない・9条壊すな!総がかり行動実行委員会と、9条改憲NO!全国市民アクションで「パレスチナに平和を!軍拡増税反対!辺野古新基地建設反対!改憲発議反対!」をテーマに千百名が集まった。「11月19日は沖縄で1968年にB52が墜落した日」だと、参院会派、沖縄の風の高良鉄美参議院議員が報告した。 JCJ月刊機関紙「ジャーナリスト」2023年12月25日号 
JCJ

欧州議会、音楽ストリーミングによるアーティストへの支払額増加を求める決議を採択

2 months 1 week ago
headless 曰く、欧州議会は 17 日、音楽ストリーミング産業を公正で持続可能なものにする EU 法の制定を求める決議を採択した (プレスリリース、 決議全文、 The Verge の記事)。 賛成 532、反対 61、欠席 33 で採択された決議では、作者に対する公正な支払いや欧州の音楽作品の露出増加、AI ツールの透明性確保、音楽的多様性の支持が盛り込まれている。特に露出と引き換えとして作者に収入減を認めさせる行為や、AI ツールを用いて支払額を減らす行為などが問題点として取り上げられており、アーティストへの支払額増額を主眼としたものとなっている。

すべて読む | ITセクション | EU | インターネット | 音楽 |

関連ストーリー:
Spotify、再生回数が年1,000回に満たないトラックをロイヤルティ計算から除外へ 2023年11月23日
欧州議会が採択した新規則案、モバイルデバイスのバッテリー交換はどの程度容易になるか 2023年06月24日
欧州議会、AI規制案を採択 2023年06月16日
欧州委員会、消費者が修理サービスを受けやすくするEU指令案を採択 2023年03月26日
欧州議会、2035年にガソリン車新車販売を禁止する法案を採択 2023年02月16日
英競争・市場庁 曰く、音楽ストリーミング市場の競争に介入してもクリエイターの収入増にはつながらない 2022年12月03日
電子機器の充電端子をUSB Type-Cに共通化する指令案、欧州連合理事会が最終承認 2022年10月26日
欧州議会、巨大IT企業規制のためのデジタル2法案を可決。今秋に施行へ 2022年07月09日
チェコ海賊党、新政府に 3 人の閣僚を送り込む 2021年12月26日
欧州委員会、AppleがApp Storeにおける支配的な立場を悪用して音楽ストリーミング市場を歪めているとの見解 2021年05月03日
ストリーミングサービス、音楽産業の牽引役に 2018年04月26日
米音楽業界の売上、ストリーミングサービスの成長によって増加傾向 2018年03月26日
Apple、Apple Musicの印税引き下げを音楽レーベルと交渉中 2017年06月25日
定額制音楽ストリーミングサービスが著作権侵害を誘発するという懸念 2016年04月14日

headless

訃報: NTP発明者デイブ・ミルズ氏

2 months 1 week ago
headless 曰く、インターネットの先駆者の一人であり、NTP (Network Time Protocol) を発明したデイブ・ミルズ氏が 1 月 17 日に 85 歳で死去した (ビント・サーフ氏のメーリングリスト投稿、 Ars Technica の記事)。 ミルズ氏の娘から知らせを受けたビント・サーフ氏が伝えたもので、ミルズ氏は安らかに息を引き取ったという。サーフ氏はNTP や Fuzzball ルーターを生み出したミルズ氏について、初期のインターネットの象徴的な存在だったと述べている。

すべて読む | ITセクション | インターネット |

関連ストーリー:
Windowsの時刻補正機能の影響で日付が大幅にズレる 2023年08月22日
Facebook、高精度な時刻同期システムをオープンソース化 2021年08月18日
NICTのhttp/httpsによる時刻配信の終了日、2022年3月31日に確定 2021年04月06日
福岡大学公開NTPサービス専用に新しいAS番号、困難を極めるサービス停止に向けた一手か 2021年01月15日
インターネットマルチフィードのPublic NTPのTwitterアカウント、いつのまにか凍結 2020年10月22日
NICT、http/httpsによる時刻配信を段階的に廃止することを決定。NTPに一元化へ 2020年07月20日
福岡大学、公開NTPサーバーを停止する方針を決定 2018年01月29日
NTPクライアントへの攻撃などを防ぐため、要求パケットに含めるデータを最小限にすることが提案される 2017年05月31日
NTPプロジェクトの資金難、現在も改善せず 2016年11月30日
NTPで新たな脆弱性が発見される、不正な時刻源と同期される可能性 2015年10月26日
「時の翁」が握るNTPの運命 2015年03月15日
インターネットの父ビント・サーフ@本家 2003年11月02日

headless

野鳥を識別できるSWAROVSKI OPTIKのAI双眼鏡「AX VISIO」

2 months 1 week ago
クリスタルガラス製品で知られる SWAROVSKI グループの光学機器メーカー、SWAROVSKI OPTIK が世界初という AI 双眼鏡「AX VISIO」を 2 月 1 日に発売する (プレスリリース、 製品情報、 The Next Web の記事、 Ars Technica の記事、 動画)。 AX VISIO は高精度なアナログ光学系 SWAROVISION と AI 技術の組み合わせにより、リアルタイムで鳥などの野生動物 9,000 種以上を識別できる。プロモーション動画では蝶が飛んでいるものもあるが、本体のセレクターで選択できるのは鳥モード (Merlin Bird ID) と哺乳類モード (Mammal ID) の 2 種類だ。カメラ機能 (13MP) も搭載し、新たな発見を写真や動画で残すこともできる。同行者に発見したものを見せやすくするガイド表示機能も利用可能だ。 ウェブコミック xkcd では写真に鳥が写っているかどうかの検出機能搭載の要望に、研究チームと 5 年の時間が必要だと答える「Tasks」というエピソードがあったが、実際に SWAROVSKI OPTIK では AX VISIO の開発におよそ 5 年をかけたそうだ。本体のデザインはマーク・ニューソン氏によるもの。AX VISIO の価格は 4,600 ユーロからとなっており、2 月 1 日には一部の小売店および swarovskioptik.com で購入可能となる。現在オーストリアの SWAROVSKI OPTIK 本社では日本仕様を準備中だといい、日本での発売時期等については後日告知するとのことだ。

すべて読む | ITセクション | 人工知能 | Twitter | サイエンス |

関連ストーリー:
トロピカーナ、AIフリーな限定パッケージ「Tropcn」をCESで配布 2024年01月14日
話せる車が当たり前に。CESで自動車メーカーのAI関連の機能展示が増加 2024年01月12日
キヤノン、「フェイク画像」対策カメラ開発へ 2023年12月28日
船外活動でISSの前方に漂流してしまった道具袋、地上から双眼鏡で目視可能 2023年11月15日
摂氏900度の高温で一気に加熱し、10倍の速度で加熱調理ができるというAIグリル 2023年10月09日
メキシカンレストランでアボカドの下処理を自動化する「Autocado」 2023年07月28日
その実物はすでに存在しない「高齢者」アイコンたち 2012年05月16日
米国防総省、「仮想現実コンタクトレンズ」を開発中 2012年02月03日
SONY の双眼鏡 3D デジカム 2011年08月23日
野球も楽しくなる双眼鏡型テレビ 2002年05月07日
双眼鏡にデジカメ 2002年04月12日

headless

The No AI Fraud Act Creates Way More Problems Than It Solves

2 months 1 week ago

Creators have reason to be wary of the generative AI future. For one thing, while GenAI can be a valuable tool for creativity, it may also be used to deceive the public and disrupt existing markets for creative labor. Performers, in particular, worry that AI-generated images and music will become deceptive substitutes for human models, actors, or musicians.

Existing laws offer multiple ways for performers to address this issue. In the U.S., a majority of states recognize a “right of publicity,” meaning, the right to control if and how your likeness is used for commercial purposes. A limited version of this right makes sense—you should be able to prevent a company from running an advertisement that falsely claims that you endorse its products—but the right of publicity has expanded well beyond its original boundaries, to potentially cover just about any speech that “evokes” a person’s identity.

In addition, every state prohibits defamation, harmful false representations, and unfair competition, though the parameters may vary. These laws provide time-tested methods to mitigate economic and emotional harms from identity misuse while protecting online expression rights.

But some performers want more. They argue that your right to control use of your image shouldn’t vary depending on what state you live in. They’d also like to be able to go after the companies that offer generative AI tools and/or host AI-generated “deceptive” content. Ordinary liability rules, including copyright, can’t be used against a company that has simply provided a tool for others’ expression. After all, we don’t hold Adobe liable when someone uses Photoshop to suggest that a president can’t read or even for more serious deceptions. And Section 230 immunizes intermediaries from liability for defamatory content posted by users and, in some parts of the country, publicity rights violations as well. Again, that’s a feature, not a bug; immunity means it’s easier to stick up for users’ speech, rather than taking down or preemptively blocking any user-generated content that might lead to litigation. It’s a crucial protection not just big players like Facebook and YouTube, but also small sites, news outlets, emails hosts, libraries, and many others.

Balancing these competing interests won’t be easy. Sadly, so far Congress isn’t trying very hard. Instead, it’s proposing “fixes” that will only create new problems.

Last fall, several Senators circulated a “discussion draft” bill, the NO FAKES Act. Professor Jennifer Rothman has an excellent analysis of the bill, including its most dangerous aspect: creating a new, and transferable, federal publicity right that would extend for 70 years past the death of the person whose image is purportedly replicated. As Rothman notes, under the law:

record companies get (and can enforce) rights to performers’ digital replicas, not just the performers themselves. This opens the door for record labels to cheaply create AI-generated performances, including by dead celebrities, and exploit this lucrative option over more costly performances by living humans, as discussed above.

In other words, if we’re trying to protect performers in the long run, just make it easier for record labels (for example) to acquire voice rights that they can use to avoid paying human performers for decades to come.

NO FAKES hasn’t gotten much traction so far, in part because the Motion Picture Association hasn’t supported it. But now there’s a new proposal: the “No AI FRAUD Act.” Unfortunately, Congress is still getting it wrong.

First, the Act purports to target abuse of generative AI to misappropriate a person’s image or voice, but the right it creates applies to an incredibly broad amount of digital content: any “likeness” and/or “voice replica” that is created or altered using digital technology, software, an algorithm, etc. There’s not much that wouldn’t fall into that category—from pictures of your kid, to recordings of political events, to docudramas, parodies, political cartoons, and more. If it involved recording or portraying a human, it’s probably covered. Even more absurdly, it characterizes any tool that has a primary purpose of producing digital depictions of particular people as a “personalized cloning service.” Our iPhones are many things, but even Tim Cook would likely be surprised to know he’s selling a “cloning service.”

Second, it characterizes the new right as a form of federal intellectual property. This linguistic flourish has the practical effect of putting intermediaries that host AI-generated content squarely in the litigation crosshairs. Section 230 immunity does not apply to federal IP claims, so performers (and anyone else who falls under the statute) will have free rein to sue anyone that hosts or transmits AI-generated content.

That, in turn, is bad news for almost everyone—including performers. If this law were enacted, all kinds of platforms and services could very well fear reprisal simply for hosting images or depictions of people—or any of the rest of the broad types of “likenesses” this law covers. Keep in mind that many of these service won’t be in a good position to know whether AI was involved in the generation of a video clip, song, etc., nor will they have the resources to pay lawyers to fight back against improper claims. The best way for them to avoid that liability would be to aggressively filter user-generated content, or refuse to support it at all.

Third, while the term of the new right is limited to ten years after death (still quite a long time), it’s combined with very confusing language suggesting that the right could extend well beyond that date if the heirs so choose. Notably, the legislation doesn’t preempt existing state publicity rights laws, so the terms could vary even more wildly depending on where the individual (or their heirs) reside.

Lastly, while the defenders of the bill incorrectly claim it will protect free expression, the text of the bill suggests otherwise. True, the bill recognizes a “First Amendment defense.” But every law that affects speech is limited by the First Amendment—that’s how the Constitution works. And the bill actually tries to limit those important First Amendment protections by requiring courts to balance any First Amendment interests “against the intellectual property interest in the voice or likeness.” That balancing test must consider whether the use is commercial, necessary for a “primary expressive purpose,” and harms the individual’s licensing market. This seems to be an effort to import a cramped version of copyright’s fair use doctrine as a substitute for the rigorous scrutiny and analysis the First Amendment (and even the Copyright Act) requires.

We could go on, and we will if Congress decides to take this bill seriously. But it shouldn’t. If Congress really wants to protect performers and ordinary people from deceptive or exploitative uses of their images and voice, it should take a precise, careful and practical approach that avoids potential collateral damage to free expression, competition, and innovation. The No AI FRAUD Act comes nowhere near the mark

Corynne McSherry

「右利き」のコオロギは歌が上手。岡山の中学生の研究

2 months 1 week ago
岡山の中学校1年生がおこなったコオロギの研究によると、2種類のコオロギの羽の構造や鳴き方などを調べた結果、鳴き方に違いがあることなどがわかったという。この研究は、第67回日本学生科学賞の中央予備審査(中学)ので入選2等に選ばれた。研究をおこなった中学生は、エンマコオロギの鳴き声は癒やされるが、フタホシコオロギの鳴き声はそうでもないことに気がついて研究を始めたという(読売新聞)。 2種類のコオロギの羽の構造や鳴き方を調べた。その結果、フタホシコオロギはオス32匹中、29匹が右羽が上で、左羽が下に重なる「右利き」。残る3匹は左の羽が上の「左利き」だった。一方メスは25匹中、右利きが11匹、左利きが14匹と左右差は見られなかったという。鳴き声を録音して波形のデータに変換したところ、左利きのオスのコオロギは右利きと比べて鳴き声が小さく、鳴いている時間も短いことも判明した。 ピンセットで羽の重なり方を入れ替えて、右利きを左利きにすると、ほとんどのフタホシコオロギは鳴くことができなくなったとしている。

すべて読む | サイエンスセクション | バイオテック | ニュース | バグ | サイエンス | 教育 |

関連ストーリー:
昆虫食への根強い拒否反応。9割の人が「食べたくない」と回答 2023年02月22日
無印良品、コオロギせんべいを開発中 2019年11月25日
コオロギ50匹分の粉末が入ったプロテインバー 2019年03月07日
コオロギを食べると腸内環境が改善したとの研究結果 2018年08月05日
ペット向け餌用コオロギを扱う「コオロギ研究所」が閉店へ 2024年01月23日

nagazou

NTT、デジタル分身を低コストで生成するための技術開発

2 months 1 week ago
NTTは17日、少量のデータから個人の発話を再現する「個人性再現対話技術」と、個人の声色を反映した音声を合成できる「Zero/Few-shot音声合成技術」を開発したと発表した。これらの技術は、多様性を理解する情報処理技術の研究開発を進める中で生まれたもので、2024年3月に商用提供される予定の独自の大規模言語モデル(LLM)「tsuzumi」にも活用されるという(ASCII.jp)。 今回、新たに発表された技術は、「万人がデジタル分身を持てる世界」の実現に向けたもので、少量の学習データで本人らしい発話内容と音声を生成する技術を特徴としている。個人性再現対話技術では、ベースモデルのパラメータを変えずに新たなデータで追加学習を行う「アダプター技術」と、指定したペルソナに合った発話を生成する「ペルソナ対話技術」を組み合わせて実現。Zero/Few-shot音声合成技術では、数分~10分程度の音声から、再現度の高い声(声色・話し方)を合成する技術になるという。

すべて読む | ITセクション | テクノロジー | クラウド | ニュース | インターネット | 仮想化 |

関連ストーリー:
神奈川県真鶴町でAI政治家が立候補 2023年11月14日
選挙ポスターにアバター、東京都武蔵野市議選で 2023年04月28日
モスバーガー大崎店、7月27日から分身ロボットによる接客サービス実験を実施 2020年07月25日
中国・新華社でAI合成アンカーがデビュー 2018年11月11日

nagazou

[B] 「南アに続く虐げられた人々」【西サハラ最新情報】  平田伊都子

2 months 1 week ago
2024年1月15日の米大統領共和党指名争いアイオワ州初戦で、トランプ前大統領が圧勝しました。<もしトラ>が<ほんトラ>になりそうです、、 <もしトラ>とは「もしトランプが米大統領に返り咲いたら、、」の略で、<ほんトラ>とは「本当にトランプが返り咲くぞ!」の略です。 一番ヤキモキしているのは、国連事務総長のようです。 トランプ氏には、UNRWA(国連パレスチナ難民救済事業機関)などの国連人権団体への支援金をカットした前科があるからです。 「虐げられた人々の側に就く」というのが現事務総長の口癖です。が、、
日刊ベリタ

[B] 独裁者は孤立し疑心暗鬼に ミャンマー最前線からのレポート(2) DM生

2 months 1 week ago
1/17のチン州からの現地報告につづき、反国軍勢力内部の矛盾、対立が現在どうなっているかを書き進めようとした。だがその前に、より重大な国軍内部の亀裂と対立の動きが表面化しつつあるのでそれをお伝えしたい。独裁者ミンアウンフライン総司令官は疑心暗鬼となり孤立してきた。
日刊ベリタ

Companies Make it Too Easy for Thieves to Impersonate Police and Steal Our Data

2 months 1 week ago

For years, people have been impersonating police online in order to get companies to hand over incredibly sensitive personal information. Reporting by 404 Media recently revealed that Verizon handed over the address and phone logs of an individual to a stalker pretending to be a police officer who had a PDF of a fake warrant. Worse, the imposter wasn’t particularly convincing. His request was missing a form that is required for search warrants from his state. He used the name of a police officer that did not exist in the department he claimed to be from. And he used a Proton Mail account, which any person online can use, rather than an official government email address.

Likewise, bad actors have used breached law enforcement email accounts or domain names to send fake warrants, subpoenas, or “Emergency Data Requests” (which police can send without judicial oversight to get data quickly in supposedly life or death situations). Impersonating police to get sensitive information from companies isn’t just the realm of stalkers and domestic abusers; according to Motherboard, bounty hunters and debt collectors have also used the tactic.

We have two very big entwined problems. The first is the “collect it all” business model of too many companies, which creates vast reservoirs of personal information stored in corporate data servers, ripe for police to seize and thieves to steal. The second is that too many companies fail to prevent thieves from stealing data by pretending to be police.

Companies have to make it harder for fake “officers” to get access to our sensitive data. For starters, they must do better at scrutinizing warrants, subpoenas, and emergency data requests when they come in. These requirements should be spelled out clearly in a public-facing privacy policy, and all employees who deal with data requests from law enforcement should receive training in how to adhere to these requirements and spot fraudulent requests. Fake emergency data requests raise special concerns, because real ones depend on the discretion of both companies and police—two parties with less than stellar reputations for valuing privacy. 

Matthew Guariglia

【23図書回顧―私のいちおし】100年先の農、食を巡るシステムとは=鈴木久美子(東京新聞編集委員)

2 months 1 week ago
 平らな土地に木を植えて、落ち葉を堆肥にして土を肥やす。埼玉県西部で300年以上続いている武蔵野の落ち葉堆肥農法が今年、国連食糧農業機関(FAO)から世界農業遺産に認定された。自然に即した伝統的な農法が今も農業として成り立っていることが条件で、生物多様性を高め、地域の文化を培うといった点も審査される。2002年開始のこの制度では、環境、経済、文化など現代の課題を評価していることに、取材した折、感心した。 評価の基準が変われば価値観も変わる。真田純子著「風景をつくるごはん 都市..
JCJ

EFF’s 2024 In/Out List

2 months 1 week ago

Since EFF was formed in 1990, we’ve been working hard to protect digital rights for all. And as each year passes, we’ve come to understand the challenges and opportunities a little better, as well as what we’re not willing to accept. 

Accordingly, here’s what we’d like to see a lot more of, and a lot less of, in 2024.
in-out-2024.png
IN

1. Affordable and future-proof internet access for all

EFF has long advocated for affordable, accessible, and future-proof internet access for all. We cannot accept a future where the quality of our internet access is determined by geographic, socioeconomic, or otherwise divided lines. As the online aspects of our work, health, education, entertainment, and social lives increase, EFF will continue to fight for a future where the speed of your internet connection doesn’t stand in the way of these crucial parts of life.

2. A privacy first agenda to prevent mass collection of our personal information

Many of the ills of today’s internet have a single thing in common: they are built on a system of corporate surveillance. Vast numbers of companies collect data about who we are, where we go, what we do, what we read, who we communicate with, and so on. They use our data in thousands of ways and often sell it to anyone who wants it—including law enforcement. So whatever online harms we want to alleviate, we can do it better, with a broader impact, if we do privacy first.

3. Decentralized social media platforms to ensure full user control over what we see online

While the internet began as a loose affiliation of universities and government bodies, the digital commons has been privatized and consolidated into a handful of walled gardens. But in the past few years, there's been an accelerating swing back toward decentralization as users are fed up with the concentration of power, and the prevalence of privacy and free expression violations. So, many people are fleeing to smaller, independently operated projects. We will continue walking users through decentralized services in 2024.

4. End-to-end encrypted messaging services, turned on by default and available always

Private communication is a fundamental human right. In the online world, the best tool we have to defend this right is end-to-end encryption. But governments across the world are trying to erode this by scanning for all content all the time. As we’ve said many times, there is no middle ground to content scanning, and no “safe backdoor” if the internet is to remain free and private. Mass scanning of peoples’ messages is wrong, and at odds with human rights. 

5. The right to free expression online with minimal barriers and without borders

New technologies and widespread internet access have radically enhanced our ability to express ourselves, criticize those in power, gather and report the news, and make, adapt, and share creative works. Vulnerable communities have also found space to safely meet, grow, and make themselves heard without being drowned out by the powerful. No government or corporation should have the power to decide who gets to speak and who doesn’t. 

OUT

1. Use of artificial intelligence and automated systems for policing and surveillance

Predictive policing algorithms perpetuate historic inequalities, hurt neighborhoods already subject to intense amounts of surveillance and policing, and quite simply don’t work. EFF has long called for a ban on predictive policing and we’ll continue to monitor the rapid rise of law enforcement utilizing machine learning. This includes harvesting the data other “autonomous” devices collect and by automating important decision-making processes that guide policing and dictate people’s futures in the criminal justice system.

2. Ad surveillance based on the tracking of our online behaviors 

Our phones and other devices process vast amounts of highly sensitive personal information that corporations collect and sell for astonishing profits. This incentivizes online actors to collect as much of our behavioral information as possible. In some circumstances, every mouse click and screen swipe is tracked and then sold to ad tech companies and the data brokers that service them. This often impacts marginalized communities the most. Data surveillance is a civil rights problem, and legislation to protect data privacy can help protect civil rights. 

3. Speech and privacy restrictions under the guise of "protecting the children"

For years, government officials have raised concerns that online services don’t do enough to tackle illegal content, particularly child sexual abuse material. Their solution? Bills that ostensibly seek to make the internet safer, but instead achieve the exact opposite by requiring websites and apps to proactively prevent harmful content from appearing on messaging services. This leads to the universal scanning of all user content, all the time, and functions as a 21st-century form of prior restraint—violating the very essence of free speech.

4. Unchecked cross-border data sharing disguised as cybercrime protections 

Personal data must be safeguarded against exploitation by any government to prevent abuse of power and transnational repression. Yet, the broad scope of the proposed UN Cybercrime Treaty could be exploited for covert surveillance of human rights defenders, journalists, and security researchers. As the Treaty negotiations approach their conclusion, we are advocating against granting broad cross-border surveillance powers for investigating any alleged crime, ensuring it doesn't empower regimes to surveil individuals in countries where criticizing the government or other speech-related activities are wrongfully deemed criminal.

5. Internet access being used as a bargaining chip in conflicts and geopolitical battles

Given the proliferation of the internet and its use in pivotal social and political moments, governments are very aware of their power in cutting off that access. The internet enables the flow of information to remain active and alert to new realities. In wartime, being able to communicate may ultimately mean the difference between life and death. Shutting down access aids state violence and deprives free speech. Access to the internet shouldn't be used as a bargaining chip in geopolitical battles.

Paige Collings