~「OpenAI Day 5~12を会話形式で振り返り」を、Google Gemini先生に調べてまとめてもらってみた~
先日、2024年12月5日から始まったOpenAIの連続発表について、Day1-4の内容を会話形式にまとめてみました(こちら)。
Day5以降についてもまとめなきゃ、、と思っていたところ。
「Google先生のGemini有料版”Gemini Advance”なら、ネット検索して勝手にまとめてくれるらしい」。
というわけで。以下Google Gemini先生による
「OpenAI day5 - 12まとめ(会話形式)」です。
登場人物
AI大好き太郎: 最新AI技術に目がなく、OpenAIの発表を毎日チェックしている大学生。
冷静な花子: AIには興味があるものの、冷静に分析するタイプの大学生。
【Day 5: Apple製品との連携】
太郎: 花子、OpenAIの12 days of exciting announcements、もうチェックした?毎日すごい発表があって、もうついていくのが大変だよ!
花子: ええ、見てるわよ。特にDay 5以降は、ChatGPTがさらにパワーアップした印象ね。Apple製品との連携とか、Macアプリの登場とか、ますます便利になりそうね。
太郎: そうなんだよ!Day 5のApple Intelligenceとの連携で、ChatGPTがiPhoneやMacで使えるようになったのは衝撃的だった! Siriやカメラとも連携して、画像認識や音声入力もできるようになったんだって。 例えば、Siriに「今日の天気は?」って聞くと、ChatGPTが答えてくれるんだよ!
花子: あら、それは便利ね。でも、プライバシーの面は大丈夫なのかしら?Appleってプライバシー重視のイメージがあるけど。
太郎: どうなんだろうね。でも、ChatGPTがもっと身近になったのは確かだよね。
町田注:Appleデバイス上で提供されるChatGPT環境には、「ユーザーがアカウントなしで利用した場合、完全匿名での利用が可能」「デバイスローカル処理の優先: Siriが最初に処理し、複雑なタスクの場合にのみChatGPTにタスクを引き渡す構造で、不要なデータの外部送信を避ける」「利用データの透明性: ChatGPTへのリクエスト内容や送信データが明確に提示される」などのプライバシー性がかなり確保される仕様になりそうです。
【Day 6: Advanced Voice Modeに視覚機能追加】
太郎: Day 6には、Advanced Voice Modeに視覚機能が追加されたんだ。 ライブスクリーン共有で画面の内容をChatGPTに説明してもらったり、リアルタイム動画でカメラに映ったものを認識してもらったりできるんだって。旅行中に役立ちそう! 例えば、料理中にレシピを読み上げてもらったり、材料を識別してもらったりもできるんだよ!
花子: へえー、面白そうね。美術館で絵画を説明してもらったり、街中でお店を探してもらったりできそうね。
【Day 7: ChatGPT Projects】
太郎: そうだね!Day 7には、ChatGPT Projectsっていう新機能が発表されたんだ。 チャットをフォルダで整理できるようになって、プロジェクトごとに色分けしたり、ファイルを参照したりできるんだって。これは便利だね!
花子: なるほどね。仕事でChatGPTを使う人にとっては、かなり便利な機能ね。私も論文を書くときに使ってみようかしら。
【Day 8: ChatGPT Searchを無料ユーザーに開放】
太郎: Day 8は、ChatGPT Searchが無料ユーザーにも開放されたんだ! Web検索結果を要約してくれたり、情報源を明記してくれたりする機能だよ。天気やニュース、地図など、色々な情報を検索できるんだ!
花子: あら、それは嬉しいわね。今まで有料会員しか使えなかったから、試してみたかったのよね。
太郎: しかも、モバイルアプリやデスクトップアプリでも使えるようになったんだ。音声検索も年内には対応するらしいよ。
花子: ますます便利になるわね。でも、情報源の信頼性はどうなのかしら?AIが選んだ情報だから、偏りがあるんじゃないかと心配だわ。
太郎: 確かに、その点は注意が必要だね。でも、情報源が明記されているから、自分で確認することはできるよね。
【Day 9: 新しい推論モデル「o1」のAPI公開】
花子: そうね。ところで、Day 9の発表は何だったかしら?
太郎: Day 9は、OpenAI o1っていう新しい推論モデルのAPIが公開されたんだ。 複雑なタスクを処理できるモデルで、トーンやスタイル、動きなどを定義できるんだって。カスタマーサービスやデータ分析の分野で活用が期待されているみたい。
【Day 10: 携帯電話とWhatsAppでChatGPTが利用可能に】
太郎: Day 10は、ChatGPTが携帯電話とWhatsAppで使えるようになったんだ! アメリカとカナダ限定だけど、ついにスマホでChatGPTが使えるようになったのは大きいよね。日本ではWhatsAppですでに利用できるみたいだよ!
花子: それはすごいわね!ますますChatGPTが身近になったわね。
【Day 11: Mac用ChatGPTアプリが登場】
太郎: Day 11には、Mac用のChatGPTアプリが発表されたんだ。 コードや文章作成アプリと連携して、作業をサポートしてくれる機能が搭載されているんだって。コピー&ペーストの手間が省けて、効率的に作業ができそうだよ。
花子: プログラマーやライターには嬉しいニュースね。私もMacユーザーだから、ぜひ使ってみようっと。
【Day 12: 新しい推論モデル「o3」を発表】
太郎: そして、Day 12には、新しい推論モデルo3が発表されたんだ! 人間の思考により近いモデルで、新しいタスクへの適応力が高いんだって。ARC-AGIっていうAIの難関タスクでも、従来のモデルよりも高いスコアを記録したらしいよ。これはすごいことなんだ! o3はAIがこれまで苦手としていた問題を解決する能力が大幅に向上していることを意味しているからね。
花子: へえー、すごいわね。o3はまだ一般公開されていないけど、o3-miniっていう簡易版が来年初めにリリースされるみたいね。 AIの進化は、本当に目覚ましいわね。
太郎: そうだね!OpenAIの12 days of innovation、本当に盛りだくさんだったね。今後のAI技術の発展がますます楽しみだよ!
花子: ええ、私もよ。AIが私たちの生活をどのように変えていくのか、これからも注目していきたいわね。
まとめ
OpenAIの12日間連続リリース (12 Days of OpenAI) のDay 5からDay 12では、ChatGPTの機能強化や新しいモデルの発表など、AI技術の進化を感じさせる内容が目白押しでした。
特に注目すべき点は、 アクセシビリティの向上 です。Apple製品との連携やMacアプリの登場、携帯電話やWhatsAppでの利用など、ChatGPTが様々なデバイスで利用できるようになり、より多くの人がAIの恩恵を受けられるようになりました。
また、 ユーザーエクスペリエンスの向上 も見逃せません。Advanced Voice Modeへの視覚機能の追加やChatGPT Projectsによるチャットの整理など、ユーザーがより快適にChatGPTを利用できるような工夫が凝らされています。
さらに、 AIの能力の進化 も目覚ましいものがあります。新しい推論モデルo1やo3は、従来のモデルよりも複雑なタスクを処理できるようになり、人間の思考に近づきつつあります。
これらの発表は、AIが私たちの生活に深く浸透し、より便利で豊かなものにしていく可能性を示唆しています。今後もOpenAIの動向から目が離せません。