GIRLS TECH TALK podcast cover

春の足音と飛行機への恐怖心

2025年3月6日配信の『テックガールズトーク』第5回では、デザイナーのMariとエンジニアのSawakoが、春の訪れを感じながら楽しくトークを展開。 愛犬と行けるお花見スポットを探すSawakoの話をきっかけに、関西にあった遊園地「エキスポランド」の思い出や、飛行機が“勢い”で飛んでいると知ったときの不安など、意外な話題へと広がります。

Mari: 「大阪の万博記念公園にあった“エキスポランド”って、誰もが一度は行った思い出の場所だったのに、事故が続いて閉園したのが残念。」

Sawako: 「飛行機はエンジントラブルが起きたら…と思うと毎回ドキドキ。勢いだけで飛んでるなんて聞いてから、さらに怖くなりました。」

そんな雑談の中で、「テクノロジー=完全に安全とは限らない」という気づきが自然と浮上します。


Grok3とAIの可能性

次に注目するのは、エロン・マスク氏が率いるAIプロジェクト「Grok3」。 これはチャットGPTや他のラージランゲージモデル(LLM)と同様、人間が大量の情報を“箱”に詰め込むように教え込む仕組みを持っています。番組では、**「箱に詰める情報の偏り(バイアス)」**について詳細に語られました。

AIのバイアスの例

  1. データの不均衡
    • 「医者=男性」という思い込みなど、教師データそのものの偏り
  2. ステレオタイプ
    • 「日本人はお米を主食としている」という固定観念
  3. 開発者の偏見
    • 開発者の好みや価値観が強く反映される
  4. モデル構造の問題
    • 例えば「ナース=女性」と学習する構造的な偏り

こうしたバイアスは、教師データを見直すなど人間の監査が不可欠と二人は強調します。


AI同士が会話を始める不安

中盤では、「Grok3がハッキングされ、想定外の情報がリークされた」という話題から、**“AI同士が会話を始めたらどうなるのか”**というSF的な不安に発展。

Sawako: 「もしGrok3とGrok4が勝手に対話し始めて、Grok5を生み出すようになったら…」 Mari: 「AI同士でしか通用しない言語が生まれたら怖いよね。」

技術の進化が急速だからこそ、どの段階で何をルール化し、どこまで制御するのか。そうした倫理的・法的な問題意識が浮き彫りになります。


人間らしさを守るために

後半は、「AIに頼りすぎて考える力が衰える」という話から、テクノロジーとの距離の取り方が議題に上がります。 紙の辞書を引いていた頃のエピソードを引き合いに、「知らない単語を調べる過程そのものが学びだった」という回想も。チャットGPTを使うと一瞬で答えを得られて便利な反面、“過程で得られる思考や知識”を失っているかもしれません。

3つの自己防衛策

  1. 意識的にパソコンやスマホから離れる時間を作る
  2. プライバシー設定などデータ管理を徹底し、自分の情報を守る
  3. 「怪しい」と直感したら一旦踏みとどまる(知らないリンクは迂闊にクリックしない)

Mari: 「知らなかった時の方が漠然と怖かったけど、知識を付ければ損はないよね。」 Sawako: 「本能的にピンと来たら一旦引いて、周りに聞くことも大事だと思う。」


結論:テクノロジーとの程良い距離感

今回の『テックガールズトーク』EP5では、AIが抱えるバイアスや誤作動リスクを例に挙げながら、人間がどう付き合うべきかを素朴な日常エピソードと絡めて語り合いました。 「知ることで漠然とした不安が和らぐ」という現実的な視点と同時に、「紙の本に触れたり、自分の直感を大切にする時間を持つ」ことで人間らしさを忘れない工夫が必要だと感じさせる内容です。

次回は、二人が冗談めかして期待している「花粉症対策AI」について話が盛り上がるかも。さらなるテックと日常の交差点を楽しみに待ちましょう。


参考リンク


エピソード(Episode5)リンク

Check out


YouTube トランスクリプト

0:02: ようこそテックガーズトークへこのラジオ ではテック企業で働く女性エンジニアと

0:07: デザイナーがトレンドのテクノロジーや aiのニュースについて解説していきます

0:12: 私はデザイナーのマリです私はエンジニア のサワコ

0:19: ですはいエピソード5ですねはいあという 間に来ましたが最近はどうですかさ最は

0:30: ちょっとずつあったかくなってきてあの なんかそろそろピクニック日和りだなとも

0:35: 思ってましたああいいですねいいなね桜も ねどんどん多分3月ぐらいから先出し

0:43: ちょっと公園とかにも行ってなんかね私 結構うちわんちゃんとかいるんでなんか

0:49: 公園すごい桜が見えて広場があって ちょっと長いリードつけてボール遊びとか

0:55: できるようなとこを常に探してるんです けどいいですねそうなんですよね

1:00: こついこないだ公園の話をしてたかなんか の時にお友達の方が久々にエキスポラン

1:07: ドって言ったんですよねエキスポランドっ てご存知ですかまえ知らないです知らない ですよね多分ね関西の人だと知ってると

1:13: 思うんですけどエキスポランドって言と もう本当なんか昔からあったもう大きな

1:18: あの万博記念公園ってあるじゃないですか 今回また万博行われるんですけどそこの

1:24: 太陽の塔の横にあの遊園地があったんです ねへえでそこの遊園地がエキスポランド

1:29: っていう名前でその名前をたまたまその方 が言ったのであそういえばそんな遊園地

1:34: あったなみたいなすごい大きくてすっごい 乗り物もいっぱいあってなんか多分関西の

1:41: 人だったらみんなそこ絶対1回は行った ことあるんじゃないかなぐらいすごい有名 だったんですけど結構事故が重なって

1:49: しまっちゃったんですよねあああ アトラクションの事故とかですかそう結構 23箇所で確か連続でもう本当あの閉まる

1:58: 後半あたりにちょっとね不良の事故が 起こってしまってなんか整備不良かなんか

2:03: 機械のなんかで故障かなんかでちょっと 事故になっちゃってそれで閉まっちゃった んですけどねすごいいいいい思い出のある

2:11: 場所だったのに最後そういう感じで終わっ ちゃったのがすごいなんかああ残念だなっ て思いながら子供ながらにそうそれを見て

2:18: たのをすごいニュースで見てたんですけど それをなんか思い出してうんうんうんで

2:24: なんか私基本海外とか住んでた割に飛行機 とか大嫌いなんですよえですかすごい外

2:30: そうですね乗り物とかも私あんまり実は 好きじゃなくて何が楽したかったかて言う とその遊園地とかに行った時になんか

2:37: 食べれるご飯とかああ美味しいですよね 特別ですよねあそうであとなんか

2:43: キャラクターものなんかとかなんか ちっちゃい本当なんかあんまり当たり障り

2:48: のない感じのジェットコースターとか本当 もうなんかコロコロしてるだけみたいな やつがすごい好きだったんですよねでま

2:56: それもなんかその性格もあってかやっぱ

3:02: 中学高校になってその飛行機の仕組みとか うんなんか乗り物の仕組みとかをななんと

3:08: なくどっかから聞いたり学んだりするじゃ ないですかうんうんそうですねあ飛行機 ってスピード出してどんだけ早いスピード

3:17: で行けるかの勢いだけで飛んでるじゃない ですかぶっちゃけそれがなんかそれを聞い

3:23: た時に私はもうなんかえちょでもこれ勢い だけで飛んでるものなのかみたいなその

3:29: なんか不安はいはいえあれ勢人間への不信 感そう勢いだけで飛んでるですねま

3:35: もちろんエアダイナミックとかそんなある んですけどでも言ったらもうスピードだけ で飛んでるあて教えてもらったんですよね

3:41: 確かになどスピードでただ本当ね空気の 空気に乗っかってるだけじゃないですか

3:47: うんうんうん確かにあれエンジン本当やら れちゃったら偉いことになるじゃないです かやっぱりそうですねねだからいつも思う

3:54: のがなんでパラシュートつけないんだろう とかうんあなんか大きなパラシュートね デプロイできよにすればなんかなんとか

4:02: ふわっと降りてこれんじゃないかなとか ちょっと色々考えたりしちゃうぐらい結構 不安なんですよ飛行機とか乗り物系がうん

4:09: 確かに言われたら不安になりますねでです よねごめんなさいねあのユニフとか来る時

4:15: でもまそういう性格なんで毎回飛行機乗る 時はうんまあ

4:22: ねもうちょっと心配で心配でしょうがない んですけどまでも何回も乗るんですけどね

4:27: 結局乗らないとどにもいけないでうんそう ですねねそれを考えまそれをつい最近

4:33: エキスポランドってその友達が言ってた 名前を聞いてああそういえば乗り物怖かっ

4:38: たなって言ってる間にこのトピックが ちょうど来てAIのその何ですか機能的な

4:45: ところでちょっとミスってこのグロックっ ていうのがうんうんねなんかあのエラーし

4:51: たって今これからのトピック話すトピック なんですけどあのXが作ってるエロン マスクさんイロンマスクさんが作ってる

4:57: 会社が作ってるやつなんですけどまんそれ のなんかやっぱそのAIにもやっぱミスが

5:03: 起きるやっぱ機械にもミスが起きるって やっぱ人間ってどうしてもミスをして しまうねあの生き物なんでそうですねうん

5:11: まあ両方信用できないなとか思いながら このトピックをちょっと勉強してたんです けれども確かにそうですねはいということ

5:18: で今日のトピック早速ですがはいまた 素晴らしい前振りをありがとうござい

5:24: はいもう毎回プロ並みになってきましたね 5回目ともなると

5:31: でもうちょっと丁寧に話せればいいんです けどままそれを聞ていそうですね今あのお

5:36: 話しいただきましたように今日はあの エロンマスク氏のAI企業ですかねが作り

5:42: ましたグロック3まグロックというAI チャットサービスについてお話しして

5:48: いければと思っておりますはいまグロック も今まで話したDEEPSEチャット

5:55: GPTあと先週話したレチャット同じよう にAIのサービスですよねまこのイロン

6:02: マスクも同じようにAIChatの サービスをもう作っていたんですけれども

6:08: 今回はそのグロッグが結構話題になってい ますのでじゃなぜ話題になっているのかて

6:13: ところを話していければと思いますはい テッククランチの記事によるとイーロン

6:19: マスク氏のAI企業xaiは新たなAI モデルグロッ3を発表しiOS及びWeb

6:26: アプリ向けの新機能を公開しました glock3はOpenAIのGPT4や

6:33: Googleのジェミナに対抗するモデル で画像解析や質問応答が可能です約20万

6:42: 台のGPUを使用した大規模なセータ センサーで訓練されグロック2の10倍の

6:48: 計算能力を活用してい ますグロック3には複数のバージョンが

6:54: ありglock3miniは高速オートを 重視しglock3リーズニングは高度な

7:01: 水論能力を備えていますまた新機能 ディープサーチによりインターネットと

7:08: xqTwitterを分析し要約を提供 することが可能ですglock3はxの

7:15: プレミアムプス月額50ドル加入者が先行 利用できるほより高度な機能を提供する

7:22: スーパーグロッグ月額30$も登場予定 ですさらに数週間以内に音声モードが追加

7:29: され企業向けAPIの提供も開始される 予定ですまたグロック3の暫定版リリース

7:37: 後にはグロック2をオープンソース化する 計画もありますマスク氏はグロックを最大

7:43: 限真実を追求するAIとし政治的中立性を 目指していると強調していますがその実現

7:51: 度については現時点では不明 ですとのことでしたこれがはいま実際に

7:59: そのブロックとはどういうものなのかって いうところです ねそうですねえっとま前回も全前回前回全

8:07: 前回両方llmについて話したと思うん ですけどま同じ感じですよね本当あのただ

8:15: ちょっとまでも この記事

8:21: が書かれたのまスピード的にはこの スピードがどうのこうのっていうベンチ

8:27: マークとかいろんなあの なんて言うんでしょうかそういう数値を

8:35: 比べる中に前回言ったレチャットが入って

8:40: ないんでちょっとそこも比べて欲しかった なってちょっと思うんですけど多分ほぼ ほぼ同時ぐらいにもしかしたらなんか

8:47: なんかあったのかなともちょっと思い ながら見てたんですけれどもま一応その

8:54: チャットGPTとかジムないよりはすごい あの式とかあのプログラミングにすごい

9:01: たけててうんうんま反応も早くてみたいな そういうちょっとそうですね数式そういう

9:07: 難しい数字うんうんあのさあの数学系の

9:13: 答えも答えれるみたいなのがすごいあの 有名ですねでそうですねま私が読んだ記事

9:23: をこれからま簡単に紹介しつつそっから ちょっとそれについて話したいんですけど

9:30: もえanalitinsite.net っていうところからなんですけれども

9:35: えっとこの記事の予約をしますとまあのま

9:41: チャットGPTとかDEEPseekとか もそうなんですけどもやっぱりあこの

9:46: グロックもそうですねグロック3とか2も ま全部そうなんですけどラングジモデルと かっていうのはま人間がトレーニングし

9:53: ないといけないていうのが基本なのでその 人間がトレーニングすることによって情報

10:01: をま箱に詰め込んでいくんですねまあの 前回1回目の時のお話したかもしれないん

10:07: ですけれどもちょっと100%覚えてない んですけどあの箱みたいまチャットGPT とかのllmっていうのがもう本当に

10:13: 空っぽの箱だとしたら人間1人がAさんが

10:19: この情報を入れますチョコレートについて の情報を入れます次はアメリカについての 情報入れます日本についての情報入れます

10:25: とかそういった感じでどんどんいろんな人 が詰め込んでいくことでその箱に詰まった 内容の中からこう答えを出せるようになっ

10:33: てるんですねなんで教えられてないことは 基本あのなんて言うんですかこ回答でき

10:39: ないんですけれどもうんまそのせもあって その入れる人うんの影響がすごく強いん

10:47: ですねっていう内容をこのあの私の読んだ 記事でも書かれてるんですけれどもまその

10:55: 中でえっと言われてるのが5個ぐらいだっ てデータのインバランスデータの不均と

11:02: ですねあとステレオタイプ2番目 ステレオタイプのあのステレオタイプ

11:10: ま偏ったデータですよねそういう偏った データについて入れられたりとかあとその

11:17: 開発してる人の考え思考とかに基づいて トレーニングされてたりとかあとモデル

11:24: アーキテクチャっていうのがあるんです けどそのラングジモデルを作る上でああの

11:30: まつげ方言語のつなげ方がそのつげる 構造を決めたことによってその構造が少し

11:38: 偏っていたらやっぱそういう偏った回答が 出てくるっていその傾向にあるんですけど まそれについて話してる記事でまあの

11:45: 面白いのでま読んでみたらいいと思うん ですけどま要するに何をとっても基本その

11:52: 人間が入れてるものなんでどうしても考え が偏ってくるっていうことなんですねでま 1つ目のデータインバランスデータの不性

12:00: 不均等なデータが入るっていうえっと 例えばあのお医者さんはどういった人です

12:08: かとかっていう質問した時にま今はだいぶ もうそういうの初めの頃結構多かったん

12:13: ですけどあ男性であの聴診器を持っていて

12:18: とかそういう発想の答えがはあの出てき たりするんですねそれはなぜかって言うと

12:24: お医者さんっていう職業にやはり男性が多 いっていうの偏りうんうんうんのせいで

12:32: やっぱり今までいたお医者さんが男の人 だった教えられた描写とかその教えられた

12:37: お医者これはお医者さんですよって言われ た人のその描写が男の人白衣を着てる短い

12:47: 髪そういった風な感じで教えられちゃうと あお医者さんは男の人なんだなあ短い髪の

12:53: 人ななっていう風な感じでこう覚えちゃう んですねうんなのでそこでデータの不均等

12:58: が生まれる っていうのがまあ1つであともう1つがま ステレオタイプトレーニングですよね

13:04: ステレオタイプトレーニングこれ例えば 日本人は日本人の主食は何ですかお米で

13:12: すって言われとするじゃないですかうん うん私それ絶対違うと思うんですよね最近 あの最近はそうですね特にも最近

13:19: イタリアン料理パン屋さんの方が多いしも なんならなんか農seemとかねお米売れ

13:25: ないって言ってるぐらいすごいねあのお米 米不足もなったけどでもそれでもあんまり

13:31: お米っていうのがなんか需要が昔よりは 減ってきてると思うしやっぱそういった その社会の動きをこう住んでるとこで見

13:38: てるとやっぱ違うけどでもそのチャット GPTとかそういうとこで聞いちゃうと

13:43: もしかしたらまこれはあの私の例えなので あれ確実にこれが出てくるわけじゃないん ですけど日本人の職はって言った時にお米

13:50: そういうのもやっぱまステレオタイプです ね日本人の日本人は絶対お米食べてるはず

13:56: みたいなそういうのがまステレオタイプで 1つがま開発者のま偏った考え方とかで

14:04: ですね例えば私めっちゃチョコレート好き なんですけどうんふんもうチョコレートに

14:09: 関してだけはめちゃめちゃ色々出てくるな とかなんかあと なんかねすごいなんかもう私この

14:16: チョコレートについてリサーチしたから これはもうがっつり入ってるとかなんか そういうなそういうのとかからもっと

14:22: コーディングのそのプログラミングとか そういった面での偏りやっぱ プログラミングにも色々スタイルがあって

14:29: やっぱそういったスタイルにもよってあの 出てくる答えも変わってくるっていうのと

14:36: かあと最後のモデルアーキテクチャーです ねこのラングラージラングジモデルを作る

14:41: 上でのこのせ前回かな前回のレチャートの 時に話したと思うんですけどこうちょっと

14:48: ニューラルネットワーク的なこううんうん 例えば猫はどういったものか目毛がある

14:54: なんちゃらかんちゃらそういうのがあると 思うんですけどそのつなぎ方が例えば ナースっていう単語が来た時に女性って

15:01: 言ってしまうさっきの1番目のそのなんて 言うんですかま偏ったデータとちょっと

15:07: 繋がってくるんですけどそのナース イコール女性みたいなそういう繋げ方をし てしまうっていうのそういう繋がりを使

15:14: そういう繋がりををしたあの構造を使って しまうとやはりちょっと釣り合いの悪いな

15:20: のちょっとバイアスって言われるですね うん感じの答えが来てくる返ってくるとか

15:26: ですねそういった感じでまあ llmにこのバイアスが生まれるっていう

15:32: 風に言われていてでそのそれをどうすどう したらいいかっていうのをこの記事で書か

15:38: れてるのはまあ人がちゃんと見ていくとか こういう

15:44: えっとま常にこうオーディットしていく ですね常にチェックしていくどういった 感じ

15:49: であの答えが出してるかっていうのを ちゃんと常にチェックしていくっていうの

15:55: とかうんあとそういったあのま基準なんか

16:00: 国際国際的な法律じゃないけどそういう なんかオーガナイゼーションがあって団体

16:06: があってそこがちゃんと管理したりする ことも必要かもしれないとかあとその

16:13: llmの箱にこう詰め込む時のその 詰め込み方とかっていうのもちゃんと テクニックがあるんでそれをちょっと使っ

16:20: てやってみたりとかっていうのを進めてる んですねうんとちなみになんですけれども

16:27: 今さこさんがおっしゃってたさそのAIも そのなんですか箱に入ってくる情報を元に

16:33: ステレオタイプがあるっておっしゃってた と思うんですけど例えば日本人だったらお 米を食べるとかドクターはま男性で髪が

16:41: 短くてってなんそれを聞いててえと人間も

16:46: 同じだなって一瞬思っちゃったんですね私 の中でうんうんうん例えばそのイタリア人

16:51: だったらまパスタ食べる毎日パスタ食べ てるですとかピザとかパスタを食べてる

16:57: ですとかまあ外国の人はみんなサングラス かけてるとかそれは確か

17:04: に確かに確かにそれは本当にまそういう イメージだったんですよででもなんか今

17:11: 違うその日本人間とまそうそういった面で は人間とAIも似てるのかなって思ったん

17:17: ですけれどもまあ1つ違うとすれば人間は それをま自分の力で変えられる例えば私

17:27: なんかだと例えば留学行って実際に外国に 住んでみてですとか今イギリスに住んでみ

17:32: てあみんな別にそんなにサングラスかけて ないと かまかけてるんですけどまかけてるの

17:40: やっぱり日差しが強いからであってあとま 色素がね目の色数が弱いからとかそういっ

17:46: た部分であるのであってそれはすごい私の 偏見だったなですとかまイタリア人の方も

17:52: みんなそんなピザとパスタを食べてる かって言われたらそうでも全然なくて寿司

17:57: 好きだよっていう人もたくさん会いました しでなんかそれってま私たちは人間なので

18:03: 自分の意思で今は行動して私はもう ちょっと視野をひげたいなと思って海外に

18:09: 出たりですとかま縁があって今違う国に 住んだりっていうのができてるんです けれどもAIの場合はそれを常に誰かに

18:18: 教えてもらわないといけないと言いますか その箱の中に全部情報詰められないといけ ないからは難しいんですかねそうですね

18:26: やっぱりそれをその箱に詰め込むのも人間 でやっぱうんたただちょっと思ったのが

18:35: その確かに景その経験ですよねその経験と かもそうだしやっぱバイアスっていうのは

18:40: 本当人間が詰め込んでるから本当起こる ことだしで今ちょうど経験してるって言っ

18:46: たじゃないですかうんうんそれでちょっと 今回の記事でちょっと読んだ記事ですごい はあと思ったのがあのリークしたんですね

18:55: このグロック3が何で夢になったかって いう夢夢っていうかまそれ前からちょっと 知られたけどなんかもっとなんか話題に今

19:01: なってる理由がそのリークした理由がその 人間がまたこれちょっとまみんな結構

19:09: ソフトウェアとかってあの壊そうとするん ですよね壊したりとかテストまホワイト

19:14: ハッカーの人たちは多分発してあのここ 悪いから直しなさいっていう風にこう助け たりするために発したりするんですけど

19:20: やっぱ一般の人たて楽しいでちょっとこの コンピューター壊せるかなみたいな感じで

19:26: ちょっと試しちゃったりするんですけど うんでそん中である人がああたかも自分は

19:35: そのグロック3じゃなくて新しい4を 作ろうとしてるエンジニアなかなような

19:40: 会話を始めてそのグロック3をあの壊し ちゃったね壊したというかまそのグロック

19:47: 3が本当隠しているべき内容うんうんを こう話し出しちゃったんですけどなんか

19:53: それって今回は人間がその人間の今までの

19:59: プログラミングの経験とかを元にこう話し 出したけど誰かが機械をグロック3がいて

20:06: グロック4がもういるとし てこの2つの機会を両方オンにした時に

20:13: 話し出したら意外とグロック5ってその まま作れちゃうのかなとも思ったったん ですよねなんかああ確かにねけ経験それも

20:21: ある意味まあなんて言うんでしょう誰かが オンにしないといけないけどオンにするっ てただのなんて言うんですか経験じゃない

20:27: けどあの ただ誰かがオンにしてくれるだけじゃない ですかなんかまなんか出会い出会いじゃ

20:33: ないですけど出会わせてくれたみたいな 感じでそっからなんか2人で機械同士AI 同士で会話し出したらなんか質問を

20:41: ちゃんと合わせてしまえば意外となんか AI同士でグロック6作った方がいいね

20:49: みたいグロック5作った方がいいねみたい な会話になってくのかなってちょっと心配 になったんですよねうんうんうん確まだ

20:55: から今は人間は経験があるからその こうちょっとずつ変えられるっていう風に

21:01: 今多分言えると思うんですけどなんか ちょっとなんかその穴ちょっとした穴に

21:09: なんかピタッと余ってしまったら意外と AI同士でなんか経験を重ねてっちゃうん

21:14: じゃないかなってなんかそうですねうん その経験からだんだん意思が出てきたら もう怖いですねねえ意思意思の方ちょっと

21:22: まだねなんかうんどこからどう出るかが私 にはまだ想像つかないんですけどうんうん

21:30: ねでもちょっと確かに経験っていうのは すごいあのま経験っていう概念自体ももし

21:37: かしたら ちょっと外から見たらもうちょっとなんか なんてか人間ができるだけじゃないのかも

21:45: しれないですよねそうですね確かにうん AIだけで使われる経験みたいなそうそね

21:52: ですよねうんああ深いですね深い今後今後 出てくるかもしれないですねAI感でしか

21:58: 通用しない言語みたいなねえねあるかも しれないですよね本当サフのあの映画の

22:04: 世界じゃないですけどうんそうですねうん 自分で言語を作り出すかもしれないって

22:09: いうね例えばなんですけどこのラージ ランゲージモデルたちが今後パワーを持ち

22:17: すぎたらどうなってくんですかね今はあの 人々ってまだまだそこまでこのまAI

22:25: チャット使ってると思うんですけれども まだなんですかね そこまでま使う人が使うこのAIチャット

22:32: に関しては使える人とかま興味がある人が 使ってるんですが例えばこのAIそのもの

22:38: がまスマートフォンだって私たちの スマートフォンだったりメールとかま カレンダーとかま使ってく日常で本当に

22:45: もう使っていくみんなの生活のま中心と なった場合これは今後問題になっていくん

22:53: ですかね うーまあなんか

22:59: ま私の個人的な見解なんですけれどもま すでに多分結構知らないところで使わされ

23:06: てるとは思うんですよねうんうんでああ一 時期なんか問題日本でちょっと問題になっ

23:12: たのがあのレジメあの履歴書仕事にあの 申し込む時の履歴書とかの内容とかカバー

23:19: レターとかをこのチャットGPTで生成し てあのできるようになったじゃないですか

23:28: やっぱそうですねそういうことが普通に あまりにもあのこのラングジモデルが発達

23:34: しすぎちゃってもう自然すぎてAIかどう かわかんないぐらいのあのクオリティの分

23:42: が結構出てきてるじゃないですかだから そういった面ではあのなんかあれ雇ってみ

23:51: たけどこの人全然文章書けねえなとか書け ねえなとか言っちゃった書けないなとか

23:56: なんかそういう風な感じであののなんか不 は出てくるんじゃないかなとはすごい思い

24:02: ますねまただそっからうんまそれ以上の ことって言うとちょ最近私意識してるん

24:08: ですけどなんかチャットGPTが出た時 ぐらいから やっぱなんか読むのがやっぱなんか少なく

24:15: なったような気がするんですよねななんて 言うんだろうなんかネットとかでもいつも 今までこうプログラミングの内容とか

24:22: わかんないことしち調べるんですけどま 最近また色々調べるようにはしてるんです けどなんかチャットGPT出出した頃

24:29: すっごいもうチャットGPTの内容読んで そっ からなんだろう追加でちょっとググる

24:37: みたいな感じだったんですけどやっぱり なんかそれしらすと脳がなんか大化してく

24:44: 気がするんですよね確かにうんなんかそう ですねうんどうしてもなんかね自分の自分

24:51: で考えるってことしなくな るっていうかそれはちょっと危険だなと 思ってちょっとだから最近っていうか本当

24:58: ここ1年 くらいできるだけあのまパソコンとか使わ

25:05: なくていい時はも本当なんてなんて言うん でしょうかあの考えるようにしてあと

25:11: マップとかもできるだけけないようにして 自分でどっかに行くようにこう方向を見る

25:17: とかそういったのとかも自分でやるように してちょっとずつなんかあま大丈夫かなと かて思ってるんですけどやっぱそういうの

25:24: が自然とAIとかがこう組み込まれてきて 知らないうちに人間の脳が大化してって

25:31: 本当になんかうん考える力がなくなってき

25:36: ちゃうんじゃないかなっていう不安はあり ますよねそうですね最近私も自分で調べ

25:43: ないですねあんまりもう聞いちゃいます 本当にうんですよねちょっとGPTにこ れって何ですかみたいな

25:49: うんま早いからいいんですけど確かにそれ こそA単語を1つ調べるのにもうん今まで

25:57: はねの人なんかは辞書を使っていろんな紙 を見ながらまその使ってるなんですかね他

26:04: の調べたい単語を調べるか家庭であこう いう単語もあるんですとかうんうんうん

26:10: その家庭で色々学べることて多分たくさん あったと思うんですけどうんうんんですか

26:15: ねいやすいませんちょっとごめんなさい私 そ神の辞書一時期使ってたことがあってあ

26:21: 分かりやすいなんすごいですよねあれ なんか調べる途中にその上下の単語とかも

26:27: やっぱり 見てたらあみたいなそこでまマークして 実際にこうなんだって見ることでね学ぶ

26:36: ことが助かるんですけど今分からないもし 例えば単語があったとしたらまそれを ちゃんとGPTに聞いたらすぐにその答え

26:42: が書いてくるじゃないですかそうですよね うん広がらないですよねそこからそう 広がらないですよねその単語の意味は

26:48: 分かるんですけどうんうんうんなんかそれ までの過程がもうなくなったといいますか うんうんうんうんうんいやそれすっごい

26:54: わかり ますいやさっきのその笑って理由が私あの 神の辞書ほと一時期すっごい私神の辞書を

27:02: 引くことにちょっとなんていうプライドを 持ってたというかなんかいいですね分かり ますこう一瞬で開けた瞬間にその単語に

27:09: たどり着けるのがすごい楽しみだったん ですよねうんうんうんででも一時期なんか もうA単語あのもう知らない単語が多い

27:17: やっぱ多かったんで初めの頃なんでなんか えちっちゃいとから英語はやってたんで

27:22: 聞き取りは結構できてたんですけどやっぱ ま話したり聞き取りちょっとできたんです けどその文法とかやっぱ単語数がやっぱ

27:28: 日本に住んでたんで少なかったんですよね だからどうしてどうしたらななんかえ単語

27:34: もっと覚えれるかと思って辞書一1目から やろうと思ってもうでも結局すぐ諦め ちゃったんですけど1個目の単語がアバー

27:41: カスでそばな誰も使わないっていう単語で それそAANNとかなんかそういうなんか

27:48: ねその接続する単語とか女なんて言う女子 とかそういう感じののが出てあパーカス

27:53: 使わないなと思ってその時点でもやめたん ですけど本本読む方が出とりばなと思っ てんでもなんかそれはちょっと思い出して

28:00: あバカそういえばそれ初めて辞書から覚え た単語だなと思って考えてました何ですか

28:07: アバカスソロバンソロアバーカスてか アバカスアバカスえいや絶対に出てこない

28:14: 調べようと思う機会がないですもんねな ですよね誰も多分言ってるの聞いたこと ないぐらい

28:20: 多分そうまあねなんかそういうねやっぱ 周りの単語とかも覚えままそののチャット

28:28: GPTが言ってくれる単語の中でまなんか 出てくるかもしんないですけどうんうん うんまあまあでもちょっと変わっ本当

28:35: 変わってきてますよねなんか言語の学び方 からそうですねうんそうですね確かに便利

28:41: ではあるけれどもなんですかねゴールまで が近すぎてうんなんかその過程で学べた

28:49: ことを全部逃してる気分確かにうんうん いや本当だからちょっとパソコンとか携帯

28:58: から離れてちょっとマニュアルなことを するこの昔からあるその例えばまピアノ

29:05: 引くなりとか本紙の本を読むなりとかうん なんかそういうのを最近ちょっと重点を

29:11: 置いて生活するようにはしてますそうです ねいや大事ですよねうんも気をつけよう

29:19: やっぱりねちょっと髪触ると落ち着きます よねああすごい落ち着きますうんうん図書

29:26: 館とかね本屋さんとかもアメリカか本屋 さんどんどんどんどん潰れてますからね

29:31: そうですよねうん本もまだあるかなあ日本

29:36: は結構なんか漫画文化が強いじゃないです かあそうですね確かに確かにそうで単行本

29:42: とかもやっぱそうやってなんかねなんか やっぱまだその昔のその昔のものを大切に

29:49: していくっていう文化だからか知らないん ですけどやっぱ日本はその本屋さんも すごい多いし単行本読んでる人も見かけ

29:57: たりするしなんかうんうんすごいそういう 面ではすごいいいなと思いますねいいです

30:03: ね今後も変わらないでいてほしい文化の1 つですかねそうですねね変わらないといい

30:09: ですうんありがとうございますあともう1 個質問があるんですけれどもはいちょっと

30:16: さっきにもさっきに出てきたあのハッカー ですよねやっぱり1番AIですとかま

30:21: コンピューターAIでに限らずなんですが まコンピューターを使う上でみんなが気に してるのがそのセキュリティの部分だと思

30:28: ですけれどもやっぱどうしてもハッカーっ ているじゃないですかうんうんうんいます

30:33: いろんな国からだったりですとかま本当 興味本意でその気がなくても興味本意で 調べちゃう人とかもいると思いますしでま

30:43: これって 避けにくい避けることはなかなか難しいと

30:50: 思うんですねうんで私たちがま今後この ラジランゲージモデルを使ってる上でこの

30:56: セキュリティっていうのは もっと心配した方がいいものなんですかね

31:01: 例えばもう会社で使いたいってなった時に その会社の情報まもちろん外には出せない

31:08: ような情報もたくさん会社ではあると思う んですけれどもまそのプライバシーだっ たりですとか写真だったりですとかまそう

31:15: いったものを言ってしまえばそのハッカー によってはリークされちゃうじゃないです

31:20: かうんそういった部分っていうのはどの ように今後気をつつけてまもちろん気を

31:26: つつけるのは気をつけてでいかないといけ ないと思うんですけれどもどのように気を つけていけばいいですかねま私また個人的

31:35: なんですけど私が個人的にしてるのは あのい結構あのまチャットGPTもあった

31:46: のかなチットGPTとかGoogleとか すごいあの個人情報に対してのあの規約

31:53: みたいなのとか常に結構アップデートして てなんかアプリとかちゃんと作ってるその

31:59: アメリカの会社とかだとあのオプションで 自分のデータを使っていいか使っちゃいけ

32:06: ないかみたいなFacebookとかも あるんですけどそれを必ずつけてくれて たりするんですねで結構それってあの

32:13: あんまり告知されたりとか大に告知され たりとかニュースになったりとかそこまで しないんでなんかたまにスレッドとか

32:21: なんかあとリールとかなんかそんなで流れ てきた時にああそういうのがあるんだあの オフにしとこうとかなんか自分の例えば

32:28: 写真インスタの写真とかをこれ トレーニング使っていいですかみたいな なんかうんうんそのファインプリントって

32:35: 言うんですかちっちゃいねポリシー的な こういうのをオッケーしてますなんか デフォルトでオッケーになってたりするん

32:40: ですけどそれを外してみたりとかやっぱ 自分のそのデータっていうのはもう自分の ことなんでもうもうこれを個人個人で守

32:47: もう守っていくしかないんじゃないかなと 思うんですよねうんやっぱこのバイアスの

32:52: 話もそうですけどやっぱ人間基準が違う じゃないですかでそうですねやっぱ

32:58: YouTubeとかでも私よく私アンセン サードドっていうそのアメリカのあの

33:03: アメリカじゃないなあれはブリティシュか ブリブリティッシュのピースモーガンさん があの話してるYouTubeのトピック

33:11: があるんですけどそれがすごい好きであの よく見てるんですけどやっぱりどんなに

33:17: クレイジーなアイデアでもどんなにもう 絶対これ正当だろっと思うようなアイデア

33:23: でもやっぱ両サイドいるんですよね絶対に あのうんそうですねからそういった面で

33:28: やっぱ個人個人によってその基準が違うし オケーってしてるバーの高さも違うしなの

33:36: でもうそれはもう自分で自分のデータだっ ていう風にちゃんと認識して守れるとこは

33:42: 守っていくっていう風に自分たち個人個人 がしないといけないことなんじゃないかな ともう思いますねまそれをもししたくない

33:49: んだったらま使わないやっぱ インターネットアプリやっぱそういう

33:54: アプリとかインターネットとかってそう いうのはやっぱうんやどうしても利益を

33:59: 求める会社が作ってるものであってそこに 関わっていくってことはある程度のま

34:06: ネガティブなあの影響っていうのは 仕方ないんじゃないかなってちょっと思う のでまそうですねもう本当に守りたいん

34:14: だったらもう私一時期やってたんですけど もうネットに私の名前とか写真とか全部

34:20: 載ってたらそこに連絡して消すんですよ うんでアメリカでそれずっとしててで

34:26: こっち帰ってきてもうもういっかも別に この年になって誰も逆さないしと思って なんか分かりますなんか昔はなんかもう

34:33: 絶対にとかなんかなんかちょっと若彼氏頃 のなんか痛いじゃないですけどなんかもう

34:38: 絶対に私の情報は渡せないわみたいな感じ だったんですけども今もどうぞ持ってって くださいぐらいの持っていきたいなら

34:45: どうぞぐらいの勢いでオープンなんです けどままあでもある程度やっぱり自分の 住んでるとことかね電話番号とかそういっ

34:53: たなんかあげてしまうとややこしくなる ものとかは自分でできるだけ守りうんにし てますしうんやっぱそうですよね何も何事

35:02: にもリスクはありますもんね飛行機最初の 飛行機もそうですしうん乗るからにねま

35:07: 防ぎはないですからねそううんだからそう いう風な感じでもま本当の会社もちゃんと

35:14: して欲しいですけどそのちゃんとするっ ていそのちゃんとのその基準がねあの国に

35:19: よっても違うし人によっても違うので みんなをハッピーにすることはできないの でもうそれだったら自分を自分でハッピー

35:25: にしましょうみたいなそうですね感じです よねになるほどなるほど うんいやあ素晴らしい良かったですあ本当

35:33: ですか良かったいや本当その通りやなと 思いましたうんまねやっぱ誰かのなんか

35:40: 意見を聞いてそこなんかそこがすごい やっぱ私すごいやっぱ人間で重要だなと

35:46: 思うのが誰かの話を聞いたからそれを全部 鵜呑みにするんじゃなくて本当に自分に

35:53: とって利益があるものかっていう風に 考えれるのがやっぱすごい人間の強みだだ なと思うんでなんかうんうんなんかそこは

36:01: なんか守っていかないといけないなという ことでノートレあの今から頑張っており

36:08: ます大事ですよね確かにそうそうそうえ ちなみになんですけどまりさんはなんか

36:16: こういうAIのハッキングとかなんかこう いうデータがリックするかもみたいなん

36:22: 聞いてやっぱ怖いなとかって思ったりし ます かううんそうですね怖いま怖くないって

36:31: 言ったら嘘ですけどね怖いま怖いですね やっぱりま怖いと言いますかま心配になる

36:38: 時はありますけどでもそれこそさっき サワコさんがおっしゃってたようにもう

36:43: 自己管理うんかなって思ってますうんもう まハッキングされるのはねまどうしようも

36:50: ないのでそれはどの会社でもどんなに 大きな企業でもされる時はされるしまミス

36:58: する時はするのでそれこそま嫌ですけどね 嫌なのでその自分であのリスクヘッジ

37:07: できるように調べた方がいいのま調べて しかないのかなと思いますねま前の方が

37:13: 少し怖かったかもしれないですうん最近は まあ今ねテク企業に勤めてるっていうのも

37:20: あって結構ま会社の方ボスとかからもここ

37:25: はこうしてって言われるじゃないですか てうんうんうんうんでそれになってからあ

37:31: これってこういうもんなんだですとかあ こうしとけばこっちの方が安全なんだなっ

37:36: ていうのがだんだん分かってきたので今の 方がもう少し安心といいますかうんだなと

37:43: 思います逆に知らなかった時の方が漠然と した不安みたいのはありましたねうーん

37:48: 確かなんか知らないのでうん何何から何を どうすればいいかも分からないですし

37:54: なんかハッカーって怖いなみたいななんか お面つつけてるあああれねあれねあのあの

38:00: 今のねそうそうそうそうそうもうなんか 本当漠然としててなんか前の方が怖かった

38:07: かなと思う知らなかった時の方が怖かった ですねでま知識はねつつけるつければ本当

38:14: 損はないですよねそうそうそううん本当 そう思いましたねうんいや逆にでも地域が

38:19: なんかあのこれプログラマーとして仕事し てるじゃないですかで今までそういう

38:24: なんかうんうんやっぱハッキングのなんか トレーニングとかやっぱいろんな会社でも してきたんですけど逆にやりすぎるともう

38:32: ねあの石橋渡あ叩いて渡るじゃないです けどもう壊しそうになるぐらいなんかやん なきゃいけないんじゃないかなってたまに

38:38: 感じる時あるんですよねあでも確かに確か にあればあったで怖いですね確かにこう いううんリンクとかも私絶対そのまま

38:45: クリックしないんですよもう絶対にコピー して特にソーシャルネットワークとかで あるリンクとかも絶対コピーしてどっかの

38:52: そのリンクチェックに通してからじゃない と私リンクをオープンしないとか本当なな

38:58: んだろうそもなんかワンステップ2 ステップちょっと多めに取ってるから時間 がかかったりとかなんかそういうのが

39:04: すごいなんかあ昔だったらもうそのまま カリカリクリクリしてても多分ああ

39:10: トージョーのなんかバイルスが入ったなと かなんかそんな感じにね確かに知らない方 が逆に際楽だったかもしれない確かに確か

39:18: に知ってるとねこれは何々かもみたいそう そうそうもしかしたらみたいなうんうん

39:23: うんうんうん確かにそれもすごいわかり ますねリングなんかねだって本当わかん

39:29: ないじゃないですか絶対最後の最後ぐらい まできっとそうですねこの人はソーシャル エンジニアリングのために話しかけてるの

39:35: かとかなんか もうもう気が確かにまいや確かにわかん

39:41: ないですねまちょうど間いい自分の合間の いいこの間を取って生活できるといいです

39:47: よねそうですねやっぱり怖いなと思う怖 そうだなって思うところはかないが1番か

39:53: なと思うんそうですねそうですね自分の ガッツをガッツフィーリングでなんて言う んですかあの内内臓はんて言うんですか

39:59: 本能あそう本能的なねちょっとピンと来た 時はちょっと一旦引くみたいなそうですね

40:04: そうですねなんか知らない自分が知らない 知識に踏み込みそうな時はいかないですか ねああははははうんなここまでなら習った

40:12: からみたいな会社の人に教えてもらった から私はできるんですけど私一旦行っ

40:18: ちゃうかもしれない行きます私結構チキン なのであの心配になっちゃいますね結構

40:25: ボスとかにも聞いたことありますもんこ れって大丈夫ですかみたいなああまあまあ でもね結局に質問するにこしたことはない

40:32: ですからねそうですね確かに基本的に知ら ないのはいかないみたいな知らない人には

40:38: ついていかないそうですよね昔から言われ てますもんねお菓子あげるからってついて ちゃいけなってねそうですねいい文章で

40:45: ちょっと面白そういそうな文章だったり サイトがあってもいかないみたいなうん うんうんうんいやいや場合は聞くみたいな

40:52: のが大事かなと思いますねいやごもともで ございますそうなると本当個人のねその

40:58: ITリテラシうんていう部分もどんどんね 大事になってきますよねこ上げていきたい

41:04: ですねうんやっぱり日本はまだちょっと httpで止まってるウェブサイトが

41:10: たくさんあるのでhttpsまで たどり着いてからAIの話出そうかなって 思うぐらいそうですねそうちょっとね心配

41:18: 心配なところは多々ありますあのもし ウェブサイトアップデートしたい方あの

41:25: ただ単にあの無料でついてくるね サーティフィケートというのをつければ あのhttpsになるんで自分でサーバー

41:33: に行ってやってくださいそうそうですね 分からなかったら聞いてください聞いて くださいコメント欄でもいいですうんそう

41:40: ですね心配だなっていう方はねぜひぜひ うんそんなこんなではい今週もあと言間に

41:48: 時間が来てしまいましたが当です後半 ちょっと余談が多かったかもしれないです けどクロック3についてあんま話しないか

41:54: もしれないですけどま似たような感じです 全ね そうですねあのリンクは貼っておきますの

42:00: であの自分ではいあの是非見てみて くださいはいということで今週もどうも

42:07: ありがとうございましたありがとうござい ますはい来週またお会いいたしましょう

42:13: そうそうですねはい来週トピックはもう 決まってるんでしたっけそうですねまた

42:19: あの後ほどアナウンスということであ了解 ですはいまた待っておりますはいちょっと

42:26: ねまた急にAIネタが来たらね最新の基本 的には最新のものをアップするっていう風

42:32: にそうですよねしたいのでトレンドにあっ たものをですねしたので今週末ぐらいに 面白いネタが来たらそっちになるかもしれ

42:40: ないですねそうですね個人的には花粉症の ネタとか話したいんです けど辛いですよね辛確かに辛いですねAI

42:50: で作ってくれればいいですねその花粉症を それこそそういうAIが欲しいですよね 今後技術じゃないんですけれども花粉症

42:57: 対策してくれるやつです今この時期から もうマスクし出してくださいみたいなそう そうそうそうそうですもうあの全部あの

43:04: 花粉のレベル今あの気象庁とかでも教えて くれるじゃないですかあそうでもそうじゃ なくはいでもその自分の体調とかを全部

43:12: もう理解してくれるそのアレルギーとかも 知ってるAIみたいなであなたはもう今

43:17: からマスクしてくださいみたいな AppleWatchとかしてくれそう ですよねそうそうそうですそうですですね

43:22: リエアップルさんよろしくお願いしますお 願いします

43:29: はいそんなこんなで今週もありがとう ございましたはいありがとうございます はいテックガールズトークラジオでした

43:35: また来週お会いしましょうありがとう ございましたありご

TOP
1F8 Mascot

More Blogs from 1F8