AIがついに「仕事をする存在」になった
2026年、自律型AIエージェントがいよいよ実験段階を抜け出し、企業の基幹業務に本格的に組み込まれる時代が来た。計画・推論・実行を自律的にループさせ、人間の監視を最小限にしながら複数ステップの業務をこなすAIエージェント——Meta「Llama 4」、Anthropic「Claude 4.6」、OpenAI「GPT-5.2」といった最新モデルがエージェント特化型として登場し、SlackやGmailなどビジネスツールへの統合が急加速している。Googleに至っては、通信業界向けに人間オペレーターなしでネットワーク障害を自律対処するエージェントまで投入してきた。
そして現実として、AIエージェントの導入を理由に数千人規模のレイオフを行う企業が出始めた。オーストラリアのWiseTech GlobalやBlock Inc.などがその例だ。「知性のコストが崩壊する中でAIが人間労働者を代替し始めている」——ABCニュースのこの言葉は、もはや遠い未来の話ではない。
誰が得をして、誰が割を食うのか
正直なところ、俺がいちばん引っかかっているのはここだ。AIエージェントによる生産性向上の恩恵は、いったいどこへ行くのか。株主と経営陣の利益に集中して、仕事を奪われた労働者には再教育コストだけが残る——そんな未来が十分ありえる。
McKinseyやPwCがこぞって「リスキリングは企業と政府が早急に取り組むべき社会課題」と言っているが、個人的には違和感がある。企業がコスト削減の恩恵をたっぷり享受しながら、再教育の責任を個人や政府に押し付けるのはフェアじゃない。自動化で浮いたコストの一部を、社会のセーフティネットや再教育に回す仕組みを、企業側が率先して設計すべきだと思っている。テクノロジーが社会を変えるスピードに、分配の仕組みが全然追いついていない。これは技術の問題じゃなくて、意思の問題だ。
自律AIを「信頼」できるか——エンジニアとして思うこと
フロントエンドエンジニアとして、AndroidやFlutter・Kotlin・Swiftの開発に携わる者として、自分なりに考えてみると——コードを書く・バグを直す・データを分析するといった作業がAIに代替されていく流れは、正直もう止められないし、それ自体は悪いことじゃないとも思っている。繰り返しの作業をAIに任せて、自分はより本質的な設計や判断に集中できるなら、むしろ歓迎だ。
ただ、「自律性が高まるほど人間が介入できる余地が狭まる」という問題は本質的だ。エージェントが誤った判断をしたとき、誰が責任を取るのか。Anthropicがダブルエージェント化のリスクを警戒して安全基準を強化しているのは正しい方向だと思うが、競争優位のためにリスクを取って自律AIに意思決定を委ねる企業が増えていけば、いずれ大きな事故が起きる。
自分はこう思う——AIエージェントに任せるべき作業と、人間が責任を持って判断すべき領域の線引きを、もっと真剣に議論しなければいけない。スピードと安全性のトレードオフを「競争のコスト」として処理するのではなく、社会全体で設計し直す必要がある。ジムカーナでも、限界を攻めるほどコントロールの精度が問われる。AIも同じだ。速さだけ追い求めていたら、いつか壁に刺さる。