The NotebookLM Chronicles: A Peek into the Mirror20260315

全く何のツールか理解できてなかったので、Youtubeを何本か見た。チャット型のLLMツールとの大きな違いはユーザーが設定した色々な形式の情報を回答のデータベースとして取り込めるらしい。早速試してみたいが、適当なパーソナルデータが見当たらない。そこで最近、書き留めている遠距離介護の覚書のKeepメモをGoogleDocumentに変換して読ませた。幾分パーソナルすぎるかも知れないが、さて。

結果的にはツールとしての企画は面白いし、出来上がるレポートの形式が多様かつGoogleらしいヒネリが効いている。

内容が内容だけに結構、自分に堪えるのではないかと懸念して、カスタム設定に「臨床心理の専門家」「希望のあるゴール」といった言葉を入れてから30-40の資料を読み込ませた。チャットのペインでは自分や母の固有名詞が出てくるのがドキッと動揺を促す効果がる。結構、かつての記録にある事件の細かいディテールを引用してきたりするので、旧知の人物と相談している様に思える。

「プレゼンテーションスライド」、「インフォグラフィック」、「音声解説」、のほか、「クイズ」なんかも作ってくれるらしい。

面白いのが「音声解説」。男女二人の声でポッドキャスト風の番組を作ってくれる。自分のそれ(番組?)も対外的に相談したこと無い「親の介護日記」データが元になっているので、なんだか複雑な気分になる。自分が取材を受けたポッドキャスト番組を聞いている感じ。個人情報も名前入りでさらされている感がある。マスコミにいいように扱われている当事者になった気分。「適当に話を作りやがって!」という腹立たしさという点で有名人はこんな気分なのかというシミュレーションにはなる。まだまだ漢字をどの様に読みとして発音するか?の精度が悪い。少しマイナーの氏名は大体、音読みで済ませてくる。かつての2byte言語に弱かった時代を思い出す。読み仮名を集めたスプレッドシートを資料として上げてみる。ちゃんと指示しないと、「読み仮名シート」を話題として取り上げてしまうのは指示が必要なAI感を感じさせてくれる。修正に時間がかかる。読み仮名を間違えられると自分ごとだけに気持ち悪い。間違った発音が何度も「音声解説」で読み上げられた時、その事をNotebookLMに伝えるのは一苦労だ。様々なやり方で固有名詞の発音修正指示を出したが伝わらない。カスタマイズは「音声解説」を構築するたびにプロンプトが記憶されないで一回一回リセットされてしまう。全力疾走して力尽きる感じ。出力結果のどの部分が不都合で、ユーザーが再出力を求めているか、明確に伝えられる「プロンプト?」を自分が知らない事も理由だろうか、AI-LLMにとってもヒトにとっても不幸な気がする。なので、渾身で「プロンプト」を作ったらコピーして置くことを勧める。

現状一番機能しているのが

1.間違った、漢字単語をすべて(ひらがな)に置き換える。これが効くと思うがアップロードしたテキストが膨大であったら、更新は邪魔くさい。

2.「「まちがったはつおん」という言葉は使わない。漢字は「KANJI」です。漢字は「かんじ」です。」というカスタマイズでの指示。これが比較的、効きそう。

解説すれば例えば「漢字」という言葉を多用したテキストをソースとして上げていたとする。そして「音声解説」の出力を効いた時、「漢字」に当たる箇所が「まちがったはつおん」と読み上げられていたとすれば、「まちがったはつおん」を「かんじ」と発音するんだとNotebookLMに伝えている訳だ。

その後に、会話のトーンであるとか、内容へのニュアンスと言った指示を書き加える感じ。これもそのうちGoogleの日本ブランチが改善していくのではないかな?

ま、実験データが生々しいから仕方ないとは思うが色々面白い体験が出来る。AIによる情報処理が他人事ではなくで自分事に感じられたと思う。

プレゼンテーションスライドで最大の問題はテキストがManoBananaで焼き込まれる状態で出力されることだ。もちろん様々な工夫で現状でも役には立つと思うが、ワンストップツールとしてはGoogle には頑張ってほしいところ。本来であればプレゼン資料の90%を5秒で作って残りの10%を5秒で修正して帰りたいところ。NotebookLMワンストップで仕上げようとすると残りの10%を調整するのにどれぐらいかかるか、読めない。やってみるとプロンプトの修正を3-4度かけても修正できないページが残る。ま、LLMのAIですわ。

インフォグラフィックもNanoBanana。きれいに仕上がるが、微妙に痒いところに手の届かない文言がミチっと配置されていて情報がスーッと入ってこない。優秀なデザインナーが普通にワンオブゼムで仕上げた感じ。

AI-LLMによる情報処理はGoogle主導に関わらず、出力の修正が一筋縄では行かない。その不都合やニュアンスのズレが細部であればあるほど調整が厄介だ。最終出力の精度を高める開発とヒトが出力に対して効率よく修正出来るエディット、更にはエディット内容をAI-LLMにプリオリティ高く、学習させるフィードバックとなるような開発。並行してやっていって欲しいものだ。

ちなみにNotebookLMのLMはランゲージモデルらしい。個人がノートに書き留めたデータを取り込んだLLM応用ツールと言った意味合いっぽい。

とはいえ、GoogleはAIをどの様に使ったら良いかという提案をストレートに訴求してくる。「こんなん、あったら便利でしょ?」的な。自分をやり玉に挙げて実験している分には面白い。ドキドキさせてくれる。皆さんも召し上がれ。

## The NotebookLM Chronicles: A Peek into the Mirror (March 15, 2026)

So, I finally decided to figure out what **NotebookLM** actually is. After a YouTube deep-dive, I realized it’s not just another chatty LLM; it’s a tool that lets you feed your own mess of data into a private brain. Naturally, I wanted to play, but I realized I didn’t have any “curated” personal data lying around.

In a fit of experimental bravery, I exported my Google Keep notes—essentially a raw, unfiltered diary of long-distance caregiving for my mother—and tossed them into the machine. A bit *too* personal? Perhaps. But let’s see what happens.

### The Verdict: Brilliant Concept, “Google-ish” Quirkiness

The execution is undeniably clever. Google has baked in that signature flair, offering a buffet of output formats. However, since the source material was heavy, I got a bit nervous about the emotional toll. I tweaked the “Custom Instructions” to act as a **clinical psychologist** and aim for a **”hopeful resolution.”** When the chat pane started spitting out real names—mine, my mother’s—it gave me a genuine jolt. It mines such specific details from past incidents that it feels less like a bot and more like an old friend who knows too much.

### The “Deep Dive” Audio: A Celebrity Simulation

Then there’s the **Audio Overview**. It generates a slick, two-host podcast discussing *your* life. Hearing two upbeat strangers dissect my private caregiving struggles—stuff I’ve never even told a friend—was surreal. It felt like being the subject of a tabloid exposé or a guest on a podcast I never agreed to do.

> “Hey, they’re just making stuff up now!”

It’s a perfect simulation of what a celebrity must feel like when the media twists their story.

### The Language Barrier: 2026 or 2006?

We’re still struggling with Kanji. For less common names, the AI defaults to the most literal *On-yomi* readings. It’s a nostalgic trip back to the days when 2-byte languages were the bane of tech. I tried uploading a spreadsheet of correct pronunciations, but unless you’re incredibly firm, the AI just starts discussing the “Pronunciation Sheet” as a topic of conversation. Typical AI—smart, yet occasionally oblivious.

Fixing these phonetic errors is like running a marathon into a brick wall. The “Customizations” for the audio seem to reset every time you generate a new clip. It’s exhausting. Perhaps I just haven’t mastered the “magic prompt” yet, but right now, it feels like a lose-lose for both human and machine.

**Pro-tip:** If you manage to craft a prompt that actually works, copy and paste that golden nugget immediately. Don’t let it vanish.

### My “Best Effort” Hacks:

1. **The Nuclear Option:** Replace all problematic Kanji with Hiragana in the source text. It works, but it’s a massive pain if your files many.

2. **The Phonetic Bridge:** Use instructions like: *”Never use the word ‘Wrong Pronunciation.’ KANJI is pronounced ‘kanji’.”* This seems to stick better. 75%soso.

### Visuals & The Final 10%

The **Presentation Slides**? Currently baked in with **Nano Banana**, which is… fine. But Google, we need to talk. I want a tool where I can spend 5 seconds making 90% of the deck and another 5 seconds fixing the rest. Right now, that final 10% of polish takes forever. You can throw three or four prompts at a single slide and it *still* won’t budge. Classic LLM behavior.

The **Infographics** (also Nano Banana) look gorgeous at a glance, but they suffer from “cramped-text syndrome.” It feels like a talented designer made them as a “one-off” without actually checking if the info was readable.

### Final Thoughts

Whether it’s Google leading the charge or not, AI output is still notoriously stubborn to edit. The finer the detail, the harder the adjustment. We need better “edit modes” and a way for the AI to prioritize human feedback in real-time.

NotebookLM (the “LM” stands for Language Model, by the way) is essentially a personal LLM for your notebooks. It’s Google’s way of saying, *”Wouldn’t this be handy?”* Using myself as the guinea pig has been an entertaining, heart-pounding ride. Give it a whirl—the water’s fine, if a little unpredictable. **Bon appétit.**