今日はメレディス・ブルサードが加わりました。メレディスはデータジャーナリストで、倫理的な AI と社会的利益のためのデータ分析を中心とした研究と報告を行っています。ニューヨーク大学アーサー・L・カーター・ジャーナリズム・インスティテュートの准教授であり、ニューヨーク大学公益技術アライアンスのリサーチディレクターでもあります。彼女は作家でもあり、執筆活動も行っています。 人工無知能:コンピューターが世界を誤解する方法 そして最近リリースされた 不具合だけではない:テクノロジー業界における人種、性別、能力の偏見との対決。
メレディスを招待して、ChatGPT、Midjourney、DALL-Eなどの消費者中心のジェネレーティブAIの最近の急速な成長と、マイクロソフトオフィスや間もなくGoogleドキュメントなどの一般的に使用される教育ツールへの統合について具体的に話しました。そして、私はそれを知っています。 たくさんの 教育者はすでに教室でのAIの影響を心配しています... しかし、Google DocsにAIテキストプロンプトが組み込まれていると、かなり耳障りになります。私たちの考えでは、AI やテクノロジーについて学生とより広く話し合う方法を見つけて、これらのプラットフォームの使用方法を指導し、問題を起こさせる必要があると考えています。こうしたプラットフォームを完全に禁止するのではなく。
メレディス・ブルサード博士、 ニューヨーク大学アーサー・L・カーター・ジャーナリズム・インスティテュートの准教授、ニューヨーク大学公益技術アライアンスの研究ディレクター、著者 人工無知能:コンピューターが世界を誤解する方法 そして最近リリースされた 不具合だけではない:テクノロジー業界における人種、性別、能力の偏見との対決
クリス・マクナット:こんにちは、ポッドキャストのエピソード134へようこそ。プログレッシブ・エデュケーションの非営利団体「ヒューマン・レストレーション・プロジェクト」に参加しているクリス・マクナットです。始める前に、この計画はクリスティーナ・ダニエーレ、ジェームズ・ジャック、マルセロ・ヴィエナ・ニエトの3名のサポーターから提供されていることをお知らせします。引き続きご支援いただきありがとうございます。ヒューマン・レストレーション・プロジェクトの詳細については、当社のウェブサイト humanrestorationproject.org をご覧ください。また、ツイッター、インスタグラム、フェイスブックでもご覧いただけます。本日、メレディス・ルサードが加わりました。メレディスはデータジャーナリストで、倫理的な AI と社会的利益のためのデータ分析を中心とした研究と報告を行っています。ニューヨーク大学アーサー・L・カーター・ジャーナリズム・インスティテュートの准教授であり、ニューヨーク大学公益技術アライアンスのリサーチディレクターでもあります。彼女は著者でもあり、「人工知能」、「コンピューターが世界を誤解する方法」、最近公開された「テクノロジーにおける人種、性別、能力の偏見に立ち向かう不具合」などの著書も執筆しています。メレディスを招待して、消費者中心のジェネレーティブAIの最近の急成長、つまりジャーニーの途中で、GPT、DALLEなどのチャットが交差し、一般的に使用されている教育ツールへの統合について具体的に話しました。つまり、Microsoft Office、間もなくGoogleドキュメントなどでした。そして、多くの教育者が教室でのAIの影響をすでに心配していることは知っていますが、GoogleドキュメントにAIが統合され、より多くのMOの人々がAIの存在に気づくようになると、秋になって初めてそれが顕著になると思います。私たちの考えでは、AIとテクノロジーについて学生とより広く話し合う方法を見つけ、そのプロセスを通して生徒を導き、AIとは何かを問題化し、AIとは何かを問題視し、教育技術全般について全面的に禁止して人々に使わないことを期待するのではなく、AIとテクノロジーについて学生とより広く話し合う方法を見つける必要があります。しかし、その話をさらに掘り下げる前に、メレディス、ここにいてくれてありがとう。プログラムへようこそ。
メレディス・ブルサード:こんにちは、お招きいただきありがとうございます。
CM: まず、「More Than a Glitch」を広く紹介したいと思います。人工知能、アルゴリズム、教育技術、テクノロジー全般の問題が、社会の偏見や体系的な抑圧を広く反映していることについて書いていらっしゃいます。そして、このソフトウェアは主に白人男性、白人男性プログラマーによって開発されています。そして、それらのプログラムの出力は提示され、しばしば中立的なものとして受け入れられます。なぜなら、それらは単なるコンピューターと見なされているので、中立的でなければならないからです。そして本の中で、それは非常に主観的で偏っていて差別的であるため、現実に含意があるとおっしゃっていましたね。あなたは監視ソフトウェアのような学校でのテストソフトウェアについて話していて、それは私の心に響きました。なぜなら、特に大学の授業をオンラインで受講していた多くの子供たちや、将来の犯罪予測者でさえ、マイノリティレポート風に驚かされました。どうやら誰かがそれを見て、映画の要点を見逃したと思ったようです。そのイントロに戻りますが、あなたの本が発売されてからここ数ヶ月の間に、消費者向けに販売されるAIが爆発的に増えました。特にチャットGPTが大きな話題となっています。More Than a Glitchの作品が、最近のチャットGPTの成長とどのようにつながっているのか、興味があります。
MB: 私は長年AIについて考えたり書いたりしてきて、カクテルパーティーに行って、人々が実際に私と話したいと思っているので、人々が人工知能について話したいと思っていることを嬉しく思います。もはや、AI が外れ値というわけではありません。しかし、人工知能について話し合う際に私たちがすべきことの一つは、サイエンスフィクションを現実として想像することに夢中になるのではなく、AIの想像上のものに固執するのではなく、AIの現実の領域に厳密に取り組む必要があるということですよね?AIの本当のところは、数学だということです。とても複雑で美しい数学ですが、ロボットが乗っ取るようなことはしません。現在、AI については多くの誇大広告が飛び交っています。ジェネレーティブAIのこの新しい波は、すべてを変え、あなたの仕事を奪うことになるでしょう。そして、リスナーがこれについて何か恐れを感じているのなら、その恐れを手放すよう強く勧めたいと思います。この新しいAIの波は、これまでの他の種類のAIと大きな違いはありません。インターフェースと人気は少し異なりますが、ほとんど同じです。すべてが変わるわけではありません。それはいくつかのことを少し変えていくでしょう。
CM: 私にとって興味深いのは、子供たちだけでなく教師もこれらのプラットフォームを使い始めており、クラスで私がしていることすべてに恐怖が入り込んでいることです。このプラットフォームに入力するだけで答えが得られ、その答えが盗用されていることを検出するのが非常に難しいため、今では無意味または二段階。または、最悪のシナリオでは、すべてが盗用されていると思います。テキサスのあの教授の話を見たかどうかわかりません。彼はすべてのエッセイを... に差し込んだために授業中に落第したのです。何て呼ばれてるか分からない。ああ、彼がコンセントを差し込んで電源を入れたの?まるで真実のGPTのようだった。これは AI プログラムの設計です。そうそう。GPTで書かれたものをキャッチするはずのもののひとつ。
MB: ええ。ちょっとめちゃくちゃです。私が考えるディストピア的な未来のシナリオのひとつは、子供たちに何かを書かせて、その子供たちに疑いを抱き、その文章をGPT検出器に通して、人々がテキストを生成することでお金を稼ぎ、人々が不正行為を発見しようとしてお金を稼いでいて、この無駄な努力がすべて起こっているという考えです。一方、実際には、私たちが悪いと判断したことを子供たちにやらせようとするよりも、そのお金をすべて学校に投入し、実際に子供たちに教えることにそのお金を費やすほうがはるかに良いでしょう。チャットGPTやジェネレーティブAIが教育の終末だとは思いません。GoogleドキュメントやGmailですでにしばらくの間使用していたオートコンプリートと基本的に同じものとして見始めると、それほど怖くなくなると思います。チャットGPTを初めて使用するときや、ジェネレーティブAIを初めて使用するときには、本当に便利に思えます。皆さんにぜひ使って試してみることを強くお勧めします。最初はとてもクールで、何かを入力して答えを得ることができるという事実は素晴らしかったからです。面白いです。もちろん子供たちはそれで遊びたがっていますが、すぐにありふれたものになります。30分間遊んでいると、その出力が本当につまらないので、飽きてしまいます。何をしているかというと、インターネットからスクレイピングされたり、データリポジトリから取り出されたりしたテキストをすべて取り出して作成者に渡し、このデータをコンピューターに入力すると、彼らは「コンピューター、モデルを作れ」と言うのです。コンピューターは「よし、モデルを作った」と言う。モデルはデータに数学的パターンを示します。その後、そのモデルを使用して新しい文章を生成したり、新しい画像を生成したりできます。他の方法では、このモデルを使用して予測を作成したり、決定を提案したりできます。このテクノロジーは非常に柔軟ですが、統計的手法でもあります。これは、ウェブ上に公開されているすべての文章を平均化したものと考えることができます。そうすると、これから何が起こるかがかなり明らかになります。文章は平凡なものになるでしょう。確かに、それは多くの状況で通用するかもしれないが、良い文章にはならないだろう。それなりの文章になるだろう。また、特定のグループや特定の声を他のグループよりも優先させることにもなります。これについて考える方法の 1 つは、インターネットからスクレイピングされ、AI システムのトレーニングに使われているテキストコーパスの中で、インターネット上で誰の声が過剰に使われているかを考えることです。誰の声が特権を与えられ、誰の声が抑圧されるかを予測できます。そのことについて価値判断を下すことができます。
CM: もちろんです。教育者が基本的に子供たちにそれを説明する機会があるように思えます。教育者がそれを認識していても、ほとんどの子供たちは、プログラムがどのように運営されているのか、そしてそれが得られる結果にとってどのような意味を持つのかを本当に理解していないと思います。15年前、人々がウィキペディアを恐れて左から右へとウィキペディアを禁止していた時代は、ウィキペディアのようにたくさん考えていましたが、ウィキペディアには有効な用途がある場合があります。チャットGPTやそれに類する他のソフトウェアについて私が考えるのとまったく同じ方法で、その使い方を知っている必要があります。
MB: 教師がチャットGPTを利用している方法について聞いたことの1つは、生徒に作品を書いてもらい、それを校正のためにプラグインしているということです。これは、人々がGrammarlyのようなツールですでに行っていることとまったく同じです。それは役に立つかもしれません。また、これを使ってグループ編集用の段落を生成する教師の話も聞いたことがあります。グループ編集の練習をしているとき、クラスの生徒が書いた段落をあまり使いたくないからです。クラスの全員から批評を受けるという経験は、一種の強烈な経験であり、すべての生徒にとって本当に役立つわけではないからです。チャットGPTが段落を作って、それをまとめてばらばらにして、なぜこの段落が悪いのか、なぜこの段落が良いのかについて話すとしたら、それはかなり無害な使い方のように思えます。
CM: 素晴らしいですね。私はそれが大好きです。また、それがどのように書かれているかを分析するのにも役立つという点にもなると思います。分からない。チャットGPTで何かを生成していることに気付いたときはいつでも、それは非常に平均的で、ありふれたものであるだけでなく、より良い言い方がないためにロボット的なものです。それはあまりにも無愛想に感じられ、人間として書くことの意味の核心に迫るのに役立ちます。事実を教えてくれるだけじゃなくて、力強い表現ができるクリエイティブライターってどういうこと?
MB: ええ、それが私たちが教えていることです。ええ、それは私たちが学校で教えていることであり、ライティングを教えているときでもあります。私が本当に興味深いのは、ワシントンポスト紙がバードや他のジェネレーティブAIシステムのトレーニングデータに含まれる内容を分析したことです。彼らの分析で最も多く使われたデータセットは米国特許商標庁のデータセットでした。これが、GPTチャットに47歳のコンプライアンス弁護士の声が使われている理由の一部を説明しています。
CM: つまり、それは間違いなく正しいように思えます。そのトレーニングという点では、ギアをシフトさせないことだけでなく、その中に存在する固定観念的なスラッシュバイアスについても話していると思います。子供たちにそれを認識してもらうためにできることはたくさんあります。私が本当に共感したのは、ある人がチャットGPTを使って、学校で読むのにベストな本トップ10のようなおすすめのリストを作成していたことです。つまり、おそらく最もクラシックな白人男性のカノンを与えてくれます。なぜなら、study.comか何かのようなものなので、Googleではそれがトップの結果だからです。あるいは、もっとパワフルだと感じています。私たちは実際に自分たちの組織のためにこれについて活動したばかりで、途中で固定観念を生み出していると思います。例えば、完璧な初デートや、家族で楽しむ食事や、最悪な家のような場所を入力しても、街の中ではまずい場所だと入力した場合、旅の途中では、ほぼ100%の確率で、偏った肌がうろついた固定観念のようなものが出てきます。では、私たちが子供たちと話しているときに AI の倫理的意味を理解してもらうために、ソフトウェアの機械的な使い方以外に、教育者に何か提案はありますか?
MB: ええ、私は絶対に皆に私の本を読んでほしいと思います。この本の書き方のひとつは、個々の章が使えるように書かれていることです。私の仕事では、複雑な技術的トピックを平易な言葉で説明し、それらの技術的なトピックを人種、性別、障害などの非常に人間的な考慮事項に結び付けることに重点を置いています。だから子供たちはこのことを理解しています。つまり、幼稚園から高校までの子供たちを対象に人工知能のワークショップをやったことがありますが、コンピューターが数学をやっていて、これがあなたの使っているプログラムの仕組みであり、人間が作ったものだと説明すると、彼らはそれを理解します。こうしたことをすべて説明すると、その謎が解き明かされ、子供たちは自分たちが使っているテクノロジーツールについて批判的に考えることができるようになります。人工知能についてより多くの子供たちと話し始めたとき、私にとって本当に嬉しかったことの1つは、子供たちがSnapchatのAIプラグインや機能などに気づいていて、それに興味を持っていて、質問があり、デジタル空間における自分の権利について意見を持っていることに気づいたことです。彼らには監視についての意見がありますよね?ですから私たちは、子どもたちがテクノロジーについてより複雑な会話をできるようにすべきであり、また、教室でテクノロジーが使われるかどうか、またどのように使われるかについて、子どもたちに発言権を持たせるべきなのです。
CM: それは本当に興味深い点です。なぜなら、私が教えていたときに私たちがよく見いだしたのは、子供たちが通常どれだけの教育用テクノロジーソフトウェアを使用する必要があるかということでした。良いものはFlipgridで、今はFlipという名前になっていると思います。マイクロソフトが所有しています。それはあなたを監視します。それはあなたのすべてのデータと同様に必要になります。データを使用する個人の人口統計情報などを大量に入力する必要がありますが、子供たちがそのアクティビティに教室で参加するには、さまざまなデータポリシーに同意する必要があります。
MB: ええ、それは正しくありません。教師は子供たちに個人データの提供を強要すべきではありません。学校は、これらの信じられないほど複雑な包括的契約に同意すべきではありません。起こったことのひとつは、「そうそう、教育でもっとテクノロジーを使おう」ということにみんなが本当に興奮したことだと思います。彼らはテクノロジーを使うことにとても興奮していたので、細字部分を読まず、フリーテクノロジーのように見えるものを使うことの意味についても考えていませんでした。なぜなら、お金を払っていない時は、あなたが製品だからです。また、それは学校への資金提供にも関係しています。私たちの学校は資金が大幅に不足しています。私たちの公立学校にはもっとお金が必要だ。私たちの教師はもっと給料をもらう必要がある。教科書や教材がないために教師がEdTechソフトウェアを使っているとしたら、それは本当に大きな問題です。
CM: 私が心配しているのは、ある意味で悪化の一途をたどっているということです。1、2か月前にテックカンファレンスに参加したばかりです。あえて言うなら、その 50% 以上が、私の意見では、教師の専門性を失わせることを目的とした、チャットGPTベースの教室向けソリューションでした。その多くは、訓練を受けたAIモデルを使って、子供たちにもっとよく読む方法を教えることができるというものでした。ビル・ゲイツでさえ、最近「未来の可能性」として推薦しましたが、教育改革が子どもたちにとってどのような意味を持つのかという点では、歴史的に見てこれほどの実績はありませんでした。そして、教師の監督なしに、少なくとも訓練を受けた教師がいなくても、子供たちが教室に座って、ある種の自主的な AI を通して学習することを余儀なくされるという、ディストピア的な未来が心配です。誰かが部屋に座って、必ず単語問題を解いてもらうつもりです。AIは実際にはそれをうまく行うようには設計されていないため、これは明らかに機能しないものの1つですが、人々がお金を節約したり、教師が教えたりしないようにするためにそれをしないという意味ではありません。たとえば、批判的な推論や、文化戦争関連のこと、本の禁止事項とのつながりなど。ですから、わかりやすく説明した記事が役立つと思います。
MB: あなたは私をちょっと落ち込ませています。
CM: わかっています。悲しいことに、教育に関するすべてのことが、常に皮肉に端を発しているようなものです。しかし同時に、教師と生徒がソフトウェアの仕組みを理解できるようにし、その謎を解き明かすことは、彼らがソフトウェアの実装を組織し、反撃するのにも役立つと思います。使い方だけでなく、なぜ使うのか、もっと広い意味で何を意味するのかを理解することも重要です。
MB: つまり、「ミア・ザン・ア・グリッチ」や「人工無知能」以外にも、私がお勧めしたい本は他にもたくさんあります。ルハ・ベンジャミンの「レース・アフター・テクノロジー」、サフィヤ・ノーブルの「抑圧のアルゴリズム」、チャールトン・マケルウェインの「ブラック・ソフトウェア」、「テクニカル・ウォン」、「ツイッター」、「ティア・ガス」が大好きです。「クリティカル・インターネット研究」や「クリティカル・テクノロジー研究」と呼ばれることもあるものの文献が増えています。テクノロジーへの依存、テクノロジーへの過度な依存、テクノロジーへの過度な依存の社会的影響、そして私たちが陥っている穴から抜け出すにはどうすればよいかを人々が研究しています。また、バイアスを理解するにはどうすればよいでしょうか。社会技術システムの内部で作用している社会的勢力をどう理解すればいいのか。
CM: これらの本を、科学、数学、英語など、あらゆる種類のコンテンツに結び付けることができれば、それほど重要ではなく、それを機能させる方法を見つけることができると思います。それはテクノロジーをより深く理解するのに役立つだけでなく、多くの子供たちが悲しいことに背景によっては少し知らないかもしれない体系的な抑圧を理解するのにも役立ちます。また、一般的にテクノロジーが人々をどのように扱う傾向があるかについても理解するのに役立ちます。その多くは、人々が何か間違ったことをしているという考えに根ざしています。これは特に子供たちに当てはまります。その多くは一般的に報酬、罰、監視、不正行為に基づいています。実際にもっとポジティブなことをするように誰かに力を与えるために使われることはめったにありません。教育者や学生にこの AI の仕組みを理解してもらうことで、本質的に人間らしくなれるにはどうすればよいでしょうか。どうすれば彼らが世界を変え、より良い成果を上げ、さまざまな不正に立ち向かうことができるのでしょうか?
MB: 私の経験では、これらのコンピュータシステムの内部で何が起こっているかを理解すれば、あなたに力を与え、不公平または不当なアルゴリズム上の決定に反対することができます。それは私にとって本当に重要なことでした。それは私が教えてきた人々や話をした人たちの中で見てきた重要なことです。知れば知るほど、自分には主体性があるように感じる。そして私にとって、そのエージェンシー、声を上げる能力、信じられる能力は、民主主義の関与する一員になるための民主的プロセスにおいて本当に重要な部分です。それこそが、私が学生たちに求めていることです。彼らに力を与えられていると感じてほしい。彼らに批判的思考の持ち主になってほしい。彼らには自分で書くことを学んでもらいたい。また、技術ツールを本当に上手に使うようになってほしいと思っています。ほとんどの人はテクノロジーがかなり苦手です。ですから、日々の生活の中でますます多くのテクノロジーをロードすることが実際に役立つかどうかは私には分かりません。なぜなら、これらすべてのプログラムのバランスを取り、すべてのボタンの位置を覚えておくのは非常に難しいからです。そして、私たちの世界にテクノロジーを重ねれば重ねるほど、ボタンを押したり、誤動作している小さな不具合を追いかけたりするだけの時間が無駄になるような気がします。例えば、今のように、私のコンピューターは死にかけています。電源タップが壊れているからです。だから、アパートのどこかに別の電源タップを掘らないといけないんだ。それは約束されていたようなスマートなデジタルの未来ではないみたいな。
CM: そういえば、もしそれがあなたが最後に言ったとしたら、とても面白いでしょう。そして、ポッドキャストのように。そうでしょう。
MB: でも、電源タップを本気で取りに行きましょう.
CM: わかった、わかった...
カンファレンス・トゥ・Restore Humanity 2023は、幼稚園から高校までの教育者や大学教育者に、破滅のループを断ち切り、希望に満ちた前向きな行動のためのプラットフォームを構築するよう呼びかけています。このカンファレンスは、バーチャルラーニングのアクセシビリティ、持続可能性、そして手頃な価格を念頭に置きながら、私たちが学生に対して大切にしているのと同じ進歩的な教育方法を模範とする教室環境で参加者を参加させることを目的としています。短い質疑応答を伴う長時間のZoomプレゼンテーションの代わりに、基調講演はひっくり返して行われ、出席者は講演者と長々と会話をする機会が与えられます。アントニア・ダーターは、学者、アーティスト、活動家として40年の洞察力を持ち、「教室の文化」や「権力」など、数多くの著作を執筆してきました。コーネリアス・マイナー、ブルックリンのコミュニティ主導型教育者、マイナー・コレクティブの共同創設者、「ウィー・ガット・ディス」の著者。ホセ・ルイス・ビルソン、ニューヨーク市の教育者、Educolorの共同創設者兼エグゼクティブ・ディレクター、「This is Not a Test」の著者。そしてアイオワWTFは、アドボカシー、アクティビズム、市民参加を通じて差別的な法律と闘う若者たちの集まりです。また、連続したオンラインワークショップの代わりに、社会的影響をもたらす環境教育、教育へのゲームデザインの応用、学習のための反人種差別のユニバーサルデザインなどのトピックについて、コンテンツやコミュニティといつでも交流できる非同期学習トラックを提供しています。今年は、コミュニティの構築と実践の維持を目的として、組織、教育者、活動家による毎日のイベントも開催します。人間性を回復するための会議は、7月24日から27日まで開催されます。また、収録時点では、アーリーバードチケットはまだ入手可能です。詳細については、当社のウェブサイト humanrestorationproject.org をご覧ください。そして、一緒に人類を回復させましょう。
ええ、これらすべてをまとめる最後の質問は、来年の秋に向けて、人々が夏の間ここでリフレッシュし、回復しつつあるので、AI全般に関するポリシーについて多くの議論や学校が開催されることになると思います。教育テクノロジー企業は、AIを良くも悪くも、おそらく悪くも利用する方法を見つけ、子供たちにGPTや旅の途中でチャットさせるのとは異なる方法で教室に実装すると思います。しかし、多くの学校が AI を全面的に禁止する傾向が強まっています。大学レベルと幼稚園から高校までの両方のレベルで、それが教室で一般的にどのような意味を持つのかが懸念されているからです。これらのものの使用を禁止し、授業でまだ話し合うことができるように話し合うことと、それらを使用してから問題を起こすのと比べて、意見を大幅に下げる提案はありますか?
MB: 私は禁止に賛成ではありません。私は、既存の盗作防止ポリシーをAIの観点から実施することに賛成です。盗作とは何を意味するのか、ジェネレーティブAIテクノロジーのどのような用途が許容されるのかについて話し合うことが重要だと思います。なぜなら、子供たちは、そのような会話の準備ができているようなものだからです。テクノロジーが影響を与えていないふりをしても意味がないと思います。子供たちはそのことを聞いたことがある。彼らはそのことに興味津々だ。それはとても理にかなっている。非常に小さなことや、それほど面白くないものには非常に便利なテクノロジーだと思います。それではそれを見てみましょう。それについて話そう。人々が本当に気に入っている教訓のひとつは、ジェネレーティブAIにパラグラフやエッセイを生成させ、子供たちに批判的な返答をさせることです。それは本当にうまくいきます。でも、1回か2回くらいすればいいと思います。毎学期にこれを行うような課題をすべてのクラスに設けるべきではないと思います。なぜなら、それ自体が本当につまらないものになり、子供たちは先生がダメだと思うようになるからです。禁止する必要はないと思います。できることとできないことについて、本当に正直に話し合う必要があります。人種、性別、障害、その他の要因にはどのような偏りがあるのでしょうか?これらのシステムにはどのようなバイアスが組み込まれているのか?すべてのテクノロジー・システムに組み込まれているバイアスにはどのようなものがあるのか。そして、私たちはテクノロジーにそれほど信頼を置くのをやめる必要があります。なぜなら、私たちが使っているテクノロジーは、ある意味では非常に有用ですが、万能ではないからです。人間であることの本質的な問題から私たちを遠ざけるような教育用テクノロジーはありません。教師に取って代わるテクノロジーはありません。これからやろうとしているものをあなたに売ろうとしているすべての企業が、それを何と呼んでいるのでしょうか?レベル別学習?学生の学習方法の特異性は、テクノロジーシステムを通って進むようなスマートな道とは正反対なので、それはうまくいきませんし、おそらくうまくいかないでしょう。それにお金を無駄にするべきではないと思います。意思決定者は、ジェネレーティブAIをめぐって現在どれだけの資金奪取が行われているかを十分に認識し、学校向けのこれらの投資には本当に慎重になるべきだと思います。テクノロジーの多くが約束どおりに機能しないからです。
CM: それもとてもパワフルな発言ですね。この会話で私が伝えたいと思っていたことの核心に迫りました。AIは、体系的な抑圧を理解するのに役立つという意味で、AIを使って私たちをより人間らしくしたり、より人間らしくしたりできるということです。AIは、これらのことについてよりオープンな議論をしたり、創造的な作文、私たちの声を人間らしくするものを理解したりするのに役立ちますが、それはちょっと奇妙に聞こえます。あるいは、その一方で、私たちは他の人々に対して非常に不信感を抱き、すべてがオンラインで盗用され、私たちは物事を禁止し、子供たちを監視しなければならないと思うかもしれません。なぜなら、彼らは常にチートをしようとし、このような非常に否定的な世界観を持っているからです。悲しいことに、これは電話やソーシャルメディアの使用など、あらゆる種類のものについて見られるのとまったく同じ議論です。つまり、コミックに戻っても 50年前の本か何かでも、この議論は続くでしょう。しかし、これらすべてをまとめる前に、最後に付け加えておきたいこと、教師への考えなどはありますか?
MB: 最近、ジェネレーティブAIに関する議論の中で気づいたことの1つは、このようなストーリーやブログ投稿など、「ああ、なんてこった、AIが私たちのすべての仕事のためにやってくる」というようなものがあるということです。それはすべてを変えるでしょう、何とか、何とか。学校ではあり得ない。それから、文章を書いている生徒もいます。まあ、私はChatGPTを使いました。悪くはありませんでした。私がChatGPTを使ってどれだけ良い仕事をしているか見てください。「ああ、こんなことをするなんて、すごくかっこいい」みたいな。つまり、この弁証法が使われているということだ。しかし、この会話の中で私が気づいたことの一つは、イリアスの35種類のアマチュアの解釈を読みたいので、先生や教授がエッセイを割り当てていると子供たちが思っているようだということです。残念ながら私たちはしません。私たちがエッセイを割り当てる理由は、サッカーのコーチがドリルを割り当てるのと同じ方法で学生が書く練習をできるようにするためです。そうすれば、ドリルを行えば、重要なときに試合で本当に上手になるからです。つまり、ChatGPTは文章を書く手間を省くだけで、コンピューターに仕事を任せるなどして、何かをやり遂げることができるという考えです。まあ、それは教育という大きな目標の功績をあまり認めていません。私たちはエッセイを割り当てているのではありません。採点したくてたまらないからです。私たちがエッセイを割り当てるのは、それが作文の練習方法であり、思考の練習方法だからです。ですから、近道を作って何かをやり遂げようとしているとき、ええ、つまり、それは人々がしていることですが、教育努力全体の要点を見逃しているようなものです。