st_data_science's profile picture. 英国公認統計家 | 王立統計学会(RSS) 認定講座審査員 | 東工大→LSE統計学科修士卒 国内最大手AI講座複数監修 | 統計,AI, データサイエンスを発信 RSS認定講座の監修 | 国際認定資格『RSS認定データアナリスト』登録事業運営

Suguru🇬🇧データサイエンティスト

@st_data_science

英国公認統計家 | 王立統計学会(RSS) 認定講座審査員 | 東工大→LSE統計学科修士卒 国内最大手AI講座複数監修 | 統計,AI, データサイエンスを発信 RSS認定講座の監修 | 国際認定資格『RSS認定データアナリスト』登録事業運営

ITや士業の業界は大きく変わっていると思う。駆け出しは知的作業を全て生成AIに任せることで、専門性が育たなくなる。専門業務は全て「一見、新卒でもできる仕事」に変わり,低品質・低価格に陥り競争が激化する。普通であり得ないような障害やミスが多発するけど、元の状態に戻ることはないと思う。


では『ChatGPTで生成した分析結果を、ご自身の名前でXで発信して下さい』っていうと多分、急に難しくなると思うんですよ。 これがデータ分析の難しいところかな、と思ったりする。


この話は、ビジネスでデータ分析に関わる人にとってすごく大切と思う。 データ分析は、それ単体だとなかなか成果に繋がらない。 予測で良い精度が出たとか、分析の結果重要な示唆が得られた、というのは実はゴールじゃない。 常に分析の前とその後を考える必要がある。

AI「離職予測」の落とし穴。 6ヶ月以内に辞めそうな人をスコア化し、リスクを“見える化”する企業が日本でも増えてきていると思うが、海外事例で面白いものがあったので共有。 先日ある米国テック企業が、AIで離職確率を算出しAUC0.82の精度を出したという記事を見た。…



Suguru🇬🇧データサイエンティスト hat repostet

AI「離職予測」の落とし穴。 6ヶ月以内に辞めそうな人をスコア化し、リスクを“見える化”する企業が日本でも増えてきていると思うが、海外事例で面白いものがあったので共有。 先日ある米国テック企業が、AIで離職確率を算出しAUC0.82の精度を出したという記事を見た。…


AI、技術の中身を説明しないと『ブラックボックス』となり、逆に説明すると『それはアルゴリズムであってAIではない!』となってしまう。 同業同士では漠然な説明は避けられるけど、ビジネスだとそうでなく、具体性の塩梅が難しい。少し謎を残しておいた方がお互い幸せですらある。


Suguru🇬🇧データサイエンティスト hat repostet

AIにより「理解負債(Comprehension Debt)」が生まれているよ、という記事。 ・AIが生成したコードを修正したり、変更したりするのに時間がかかるという問題が起きている ・これは、他人が何十年も前に書いた古いシステムのコードを扱う状況とよく似ている…


これは新卒AIエンジニアやデータアナリストが間違えやすいこと。大学だとどうしても、難しいモデルや理論を教わりがちになる。…

Dieser Tweet ist nicht mehr verfügbar.

線形モデルは、『現実はどんな構造かわからないけど、とりあえず一番単純な線形の仮定を置こう!』という「始めの一歩」的な感じで使われる。仮に非線形なんておくと、「なんでその非線形性を仮定した?」みたいに逆に突っ込み所を生みかねない。意外と免罪符的な役割を持っている。


思えば統計学の、『推定パラメータの収束性の議論』は、理論的には大切なんだろうけど、『で、そもそもそのモデルの学習は実用に耐えられる計算規模のものなの?』はもう少し気にされて良いものなような気がする。 逆行列一つ算出するにも、規模が大きければ現実的でないほど時間がかかる。


ちなみに計算量は、Kaggleや統計検定でも触れられにくい、実務の重要ポイント。正直統計学は、応用数学やCS領域と比べるとこの概念を軽視しがちに思う。MLOpsなんてよく話題になっていたけど、機械学習をビジネスやプロダクトのフローに組み込もうとすると、モデルの複雑さは極力避けたいものになる。


科学的には、統計モデルは現実のデータ生成過程を模すべきもので、その選択はデータ数に依存すべきではないというのは、理になっている。 ただ、「すべてのモデルは誤っているが、いくつかは使える」と言われるように、すべての統計モデルもやはり「ゴリ押し」だとも考えている。


ちなみに今風のAIモデルを無闇に使い、会議で話しても「誰にも理解されない」か「専門家不在で指摘もされない」状況は、現代のデータサイエンティストが経る厨二病みたいなもの。 ただ実際にやってみないと「難しいモデル使いたいコンプレックス」は解消されないので、成長に必要なステップでもある。


データ数によって使うモデルは変わりうる。ニューラルネットワークが最たる例だけど、パラメータが多いモデルほど学習には多くのデータが必要。 逆に単純なモデルほどデータは少なくとも学習できるので、きちんとトレードオフがある。 前者は更に計算量という、実務で無視できない欠点が出てくる。


実際に使っている人は分かると思うけど、今のAIエージェントでソフトウェア開発をすると、一つの問題を解決するために、過去に解決済みの問題を崩壊させるということが多発する。 過去の実施内容をまるっきし覚えていないからだ。なので、過去のやり取りを全て記憶して指示する人間が不可欠になる。


サムアルトマンがどこかに書いていたけど、AIエージェントのボトルネックはLLMそのものにある。 一方でここ数年のGPTやClaudeなどのモデルの改善は、先に挙げた問題点に向き合ったものには見えない。 生成AI市場は局所最適化に舵を切ってしまっているように思う。


人間の睡眠をAIで模す、機械学習で言う再学習は、現状莫大な計算コストがかかる 少なくともこの数年で、これを各ユーザーのアカウントごとに実施するという課題には、どの巨大企業もなんら解決策を提示できなかったと思う 意外にも生成AI市場は、かつてのAIの進化と同様、成長の限界に直面している


こう考えると、人間が睡眠を必要とするのは理にかなっている。睡眠はきっとコンテキストウィンドウの知識を『学習済みモデル』の方に移行して、コンテキストウィンドウを白紙に戻す作業なのかもしれない。 今普及している生成AIは、この機能が欠落しているし、この欠陥がある以上人は越えられない。


LLMのコンテキストウィンドウの限界がある以上、AIエージェントに任せられる作業は、文脈や背景が少ない単純作業に限られる。ある程度の規模の仕事になると、この膨大な『文脈』は必ず人が把握している必要がある。 だから今のAIの成長の延長線上では、人を置き換えていくのは実は現実的じゃない。


CLAUDE.mdファイルみたいな記憶保存を使えば何とかできると思っている人も多い。けど、これはやっぱり記憶喪失した人間に過去の出来事の要約を見せているようなもので、焼石の水に過ぎない。AIエージェントにどれだけ開発競争が起きようと、必ず早いうちに成長の頭打ちがくる。


Codex, Claude Code, Gemini CLIなど色々出てきてるけど、既存のLLMは全てコンテキストウィンドウの制限により実用にハードルがある。今後も当面は改善はされないと思う。 今のAIエージェントは定期的に再起動する必要があって、これは数回会話する度に記憶喪失する人間と仕事をするに等しい。


Loading...

Something went wrong.


Something went wrong.