東大データサイエンス ビジネス活用コース 情報倫理編

Photo by fabio on Unsplash

皆さんこんにちは! 今日もどこかで改善サポート、Kusunoko-CIです。

最近、東京大学のデータサイエンス 「ビジネス活用コース」という講座を受けはじめました。「AIシナジスト」の道を模索しております。

その中の1つ、「情報倫理」というクラスを終了しましたので、受講してみた感想などまとめておきたいと思います。

情報倫理コースについて

Photo by Sarah Dorweiler on Unsplash

こちら以前のエントリーでも少しお話ししましたが、データサイエンスを開発・運用する際に我々が心において行動しなくてはならない倫理・指針についてまとめた講座になります。

ビッグデータ時代にAIやデータサイエンスを活用する際に新たに噴出するコンプライアンス・倫理的課題に対し、どう対応するかの行動規範を身に着ける為のベースを学びます。

◆講座の内容◆

確立されている論理:研究倫理、一般的情報倫理/これからの確立を待つ倫理:新しい技術にまつわる倫理

東京大学データサイエンス

というのがWebpageからのコース説明ですね。

こちらも前回の入門講座と同じく、ビデオによる受講が可能になっています(3時間)。

担当は、東京大学大学院の情報理工学系研究科で教授をされておられる、松尾宇泰先生という方。工学博士(東京大学)で専門分野は、数値解析だそうです(Profile)。

こちらの先生語り口は大変穏やかで、内容が「情報倫理」ということもあるのでしょうか、かなり多方面に気を使いながらお話しされているなーという印象を持ちました。

「つまらないかもしれない、冗長で申し訳ない」ということも何度か口にされておられましたが、私は大変興味深く受講させていただきました。

情報倫理は発展途上

内容は、情報のみならず科学の発展と、倫理の歴史的歩みからスタートします。

科学の発展は、皆さんもご存知でしょうが、社会や人間に良いことをもたらす一方、予期しない使われ方でダメージをもたらすこともあります。

講座の中ではこれらを、「合意形成」とか「トレードオフ」という言葉で表現されていましたが、データサイエンスを扱うものとして、とても重要な概念になってきます。

というのも、会社としてAI導入でデータを扱う場合など、結果に対し「意図していなかったから責任はない」では済まされないわけで、昨今のデータ関連の企業案件はその辺を端的に物語っている、そういうことを淡々と、かつ非常に分かりやすく学ぶことができる講座でありました。

事例 Facebook

Photo by Alex Haney on Unsplash

講座の中で取り上げられた1例で、Facebookが一部の利用者を使って行った心理実験があります。

こちら「Facebook 心理実験」と検索すれば今でも山のように結果が出てきますが、2014年のお話しです。

Facebookは、ランダムに選択されたおよそ69万人の利用者を、ポジティブなニュースを表示する群と、ネガティブなニュースを表示する群に分けました。

その後、ニュースフィールドでそれぞれの情報に触れたユーザーの行動を追ってみると、人はニュースフィールドでみたそのニュース(ポジティブ・ネガティブ)に引きずられて、ポジならポジ、ネガならネガな内容の投稿を行いがちであることがわかった、という内容の研究です。

心理学的には、ここまで大規模な実験は極めて難しく、ゆえに大変貴重であったのですが、「倫理的に問題」との批判が殺到。

Facebookは当初、ニュース表示はアルゴリズムによって操作されていることはユーザーも知っており、「説明に基づく合意」(informed consent)を満たすと考えているとの説明を発表しました。

しかしながら、2014年の6月17日に高名な(一般人が読まないであろう)学術誌にこの研究結果が掲載され、炎上し、わずか12日後の6月29日、Facebookは公式に謝罪を発表するという事態に発展しております。

合意は取れており問題はないと考えた企業側と、世論感覚とのずれ。またわずか12日間に公式謝罪発表というこのスピード感

どうユーザーに同意を取り、また集めた情報をどのように使う(あるいは使わない)のか、あるいは予期しない炎上も信じられないスピードで燃え広がる昨今、データサイエンスに携わるものに多くの示唆を与えてくれる案件を学ぶことができました。

その他のケース 科学発展と倫理

Photo by janilson furtado on Unsplash

その他のケースとして興味深かったものをいくつかあげてみます。こちら詳細は検索などしていただければ幸いです。

米タスキギー郡梅毒実験

1932年から1972年まで、アメリカ南部の貧しい黒人たちを利用して行われた、梅毒の末期症状観察のための実験。

あまりにも非倫理的であり、人種差別ともあいまった非道な事例。この事例のさらにひどいところは、1945年にペニシリン(治療薬)が開発されたにもかかわらず、実験がその後20年以上も継続された点。

後にアメリカ政府からの和解金(1000万ドル)と、大統領(クリントン)から国として正式に謝罪が発表される。

Winny裁判(日本)

サーバーを介すことなく、2点間で大量のデータをやり年出来る新技術を悪用するものがあらわれ、開発者が逮捕(のちに無罪判決)。

新たな技術に関して、このような形での法的介入は、科学の発展を委縮させるとして波紋を呼んだ事件。

あまりにも稚拙な起訴」との言葉が、最高裁判決中に発せられた。

核分裂研究

1939年に発表された核分裂に関する研究。

別の科学者が、その研究が引き起こすであろう将来を予見して発表を思いとどまらせようとするも、当人は「純粋な科学である」としてNatureに論文掲載。

その後技術はその科学者の予想通り、原子爆弾開発へと利用され、日本は世界でただ一つの被爆国となった。

核というエネルギーはもちろん有効に活用することも可能ではあるが、悪用された場合にどのようなダメージをもたらすのか、日本人なら容易に想像がつく。

この技術の発見者に、1945年の悲劇の責任はあるかどうかと考えると、科学技術発展と倫理が非常に難しい問題であることがわかる。

データサイエンス発展と合意形成

Photo by Mike Kononov on Unsplash

我々はこの急速に発展する科学(AI/データサイエンス)領域において、

  • 社会的合意
  • 何を許容し、何をアウトとするのかの線引き(トレードオフ)
  • 法的根拠

などの事柄が、とてもあいまいなまま進行しているということを知っておかなくてはいけない、ということが学びの重要な点です。

また特にこのAI関連の開発においては、非常に多くの人たちがその開発に関わることから、責任の所在を明らかにすることも難しくなってきていることもあげられていました。

また情報の匿名化は現時点で技術的に不可能であり、データを提供する個人としても、また当然取り扱う側の人間としても、その取扱には細心の注意が払われなくてはならない。

  • いつまで使うのか(未来永劫と言われて同意できるのか)
  • データ適用の範囲はどこまで許容するのか(例:特定医療目的であったデータの転用)

など情報提供者との同意を得る際にも、これらのことを理解していただくことが必要になっていきます。

AI/データサイエンスに使われるアルゴリズムが、社会や人を傷つけることも知っておかなくてはいけません。

コンピューターは、悪意なく、与えられたデータを素直に学びます。それゆえに特定の誰かを傷つけ、社会的に悪影響を及ぼす場合も考えられるということです。

あるいは技術の発展ゆえの危うさもあります。

Deepfakeと呼ばれる、深層学習をつかった画像生成などがそうです。本物と区別のつかない偽物(例えば有名人を使ったポルノ動画や画像)が出回って、摘発されるケースも増えてきていますね。

  1. 色々な事案の学習を通して、
  2. 科学が新しい領域に入り
  3. 悪用されたり、意図せず社会的に悪影響を与えるなどの問題が発生して
  4. 様々な議論が生じ
  5. 合意が形成されていく

という流れを、上記のような実際のケースを学ぶことで理解できる講座になっております。

今この「4.合意形成」のとっかかりに入ったくらいとのこと。

こうした歴史的な流れや進行途中の様々な案件の存在を踏まえて、我々は何に気をつけながらデータサイエンスに携わっていけばよいのか、示唆に富んだ内容でした。

まとめ

いかがでしたでしょうか?

「東大データサイエンス ビジネス活用コース 情報倫理編」ということで、こちらのコースに参加して得られたことなどまとめてみました。

科学は人を助けもしますし、傷つけもします。

恩恵を得るために、発展の途上でどこまでのダメージを許容するのか(トレードオフ)というのは、常について回る議論です。

このことをしっかり理解したうえでAI・データサイエンスに関わっていかなくてはいけないのだということが体系的に理解できる講座になっております。

誇張抜きでとても面白い内容でした。

AI関連のプロジェクトを進行させるときは、その規格の段階で、必ず倫理に関する議論がチームと経営層によって行われるべきだと考えました。

こういうのはまさにAIシナジストと呼ばれる人間が、ブレインストーミングのフレームワークを考えだして、プロジェクトを導かなくてはいけない。

関係者全員にトレーニングを施し、各段階の注意点(データ取得方法、データ使用時・使用後の取り扱い)や考えられる影響(使用データにバイアスがかかっていないか、結果のもたらす社会的影響は等)をしっかり話し合っておくことが必要ですね。

様々な科学と倫理の案件を学んで、改善おじさんとしては、こういう議論のためのワークショップの必要性を感じています。

そのうちデザインしたものを、ブログで発表したいと思います。

そんなわけで、あと残すはいよいよ「データサイエンス活用法」というメインのクラスになりました。

こちら2022年1月からの受講になりますが、今から何が学べるのか楽しみです。

今日も読んでいただきましてありがとうございました。

ではまた!

AIシナジストに関してはこちらから。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

CAPTCHA