0

1M context đã unlocked cho người dùng Claude, tin xấu hay tin tốt?

Vừa ngủ dậy, thế giới lại thay đổi rồi

Claude AI 1M context announcement

TL;DR

  • Claude Opus 4.6 & Sonnet 4.6: context window mặc định 1M tokens (~750K từ)
  • Không phụ phí giá per-token giống nhau dù bạn dùng 9K hay 900K tokens
  • Không cần beta header bỏ hoàn toàn rào cản kỹ thuật
  • Media: tăng từ 100 → 600 ảnh/PDF pages mỗi request
  • Claude Code (Max/Team/Enterprise): full 1M context, ít bị compaction hơn
  • Opus 4.6 đạt 78.3% trên MRCR v2 cao nhất trong các frontier model

Tin tốt

Claude chính thức mở 1M context window cho người dùng bình thường. Trước đây, muốn dùng được 1M context qua API, bạn phải lên Tier 4 (nạp $400) và thêm một cái beta header vào mỗi request. Giờ thì không cần nữa, mặc định là 1M, không phụ phí, không header gì thêm.

Giá per-token cũng giữ nguyên. Một request dùng 900K tokens có giá per-token y hệt một request dùng 9K tokens. Không có chuyện "dùng nhiều context thì đắt hơn" như trước.

Ngoài ra, giới hạn media cũng được nâng từ 100 lên 600 ảnh/PDF pages mỗi request, tăng gấp 6 lần. Đây là tin vui cho những ai hay làm việc với tài liệu dài, scan PDF, hay xử lý hình ảnh hàng loạt.

Với người dùng Claude Code (Max, Team, Enterprise), toàn bộ 1M context giờ được tận dụng triệt để. Conversation dài hơn, ít bị compaction (nén context) hơn, giữ được ngữ cảnh tốt hơn trong các session code kéo dài.


Tin xấu

Còn nhớ bài toàn cảnh AI trong tháng 2 chứ? Các tác nhân hallucination, context window,... viễn cảnh 1M context đã bắt đầu dần phổ biến rồi đấy. Gemini mở 1M context đầu tiên, sau đó là Claude Sonnet 4.6 với 1M, rồi GPT 5.4 với 2M context.

"Viễn cảnh 10M context sẽ như thế nào? Rồi 100M context nữa? Nó sẽ khủng khiếp đến mức nào?" Trích trong bài toàn cảnh AI

Và để nói thêm thì, mấy anh Anthropic, Google, GPT vẫn còn giấu nhiều bài tẩy lắm. Vì khi ra đánh trận, mấy ai tung át chủ bài đầu tiên đâu. Chúng ta sẽ không biết hiện tại họ đã research đến model như thế nào rồi. Và còn nhiều bài tẩy chưa được tiết lộ lắm, tương lai sẽ còn rất nhiều bất định đấy.

Khi context window ngày càng lớn, AI không chỉ "đọc" một file code hay một trang tài liệu nữa. Nó đọc cả codebase, cả bộ documentation, cả lịch sử conversation và nhớ hết. Điều này nghe thì tiện, nhưng nó cũng đồng nghĩa với việc AI ngày càng có khả năng làm được những thứ mà trước đây cần một con người ngồi đọc, hiểu, và tổng hợp.


Ai được hưởng lợi?

Người làm Product chắc chắn sẽ đi nhanh hơn. Bạn có thể quăng cả PRD, wireframe, API docs, codebase hiện tại vào một context duy nhất và bảo AI: "Hiểu hết chưa? Giờ build cho tôi." Không cần chia nhỏ, không cần tóm tắt, không cần "bạn đọc file này trước rồi tôi gửi file tiếp theo."

Người đang có sẵn các gói subscription Max của Claude, Team, Enterprise tất cả sẽ bắt đầu làm việc nhanh hơn. Workflow mượt hơn, ít bị đứt context hơn.

Nói chung, ai dùng Claude (trừ mấy anh Pro Plan) thì hưởng lợi.


Ai được hưởng (bất) lợi?

Dev. Và chủ yếu là dev.

Khi kỳ vọng bắt đầu tăng cao, giá trị dần dần bị "coi thường" vì sự xuất hiện của AI khiến con người ta kỳ vọng chúng ta thành 10x engineer. Mà khi 10x Engineer dần trở thành standard, thì cái gọi là "tiêu chuẩn" cũng bị đẩy lên theo. Áp lực cho chúng ta ngày càng lớn.

Người sử dụng lao động thì có hàng nghìn lựa chọn, trong khi đó người lao động thì ít lựa chọn hơn. Ngày xưa thì người cạnh tranh với người để sinh tồn. Bây giờ không chỉ cạnh tranh với người, mà còn cạnh tranh với cả AI thứ không cần ngủ, không cần nghỉ phép, và giờ thì nhớ được 1 triệu tokens trong một lần nhìn.

10x engineer meme


Nếu bạn thích những bài viết kiểu "tuyệt vọng nhưng vẫn đang cố gắng" thế này, có thể follow tôi. Hoặc đơn giản là để biết mỗi khi có AI model mới, công cụ mới ra mà bạn lỡ không biết, thì ít nhất cũng có thằng viết bài kể lại cho bạn nghe.


@thatnghiepdev
thatnghiep.dev GitHub LinkedIn


All rights reserved

Viblo
Hãy đăng ký một tài khoản Viblo để nhận được nhiều bài viết thú vị hơn.
Đăng kí