+2

GPT-5.5 có gì mới? Benchmark, giá và phân loại an toàn của model mới nhất từ OpenAI

GPT-5.5 là model mới nhất của OpenAI, mang đến hiệu quả token cao hơn và khả năng reasoning trên long context thực sự dùng được lần đầu tiên trong lịch sử các model của hãng. Đây không phải bước nhảy vọt về năng lực tổng thể, mà là bản cập nhật có chủ đích: nhanh hơn trên cùng tác vụ, ít token hơn để hoàn thành, và context window 1 triệu token cuối cùng đã hoạt động đúng như quảng cáo.


Tóm tắt các điểm chính

  • OpenAI phát hành hai model riêng biệt: GPT-5.5 (tiêu chuẩn) và GPT-5.5 Pro (cho tác vụ phức tạp hơn, đắt hơn 6 lần)
  • GPT-5.5 duy trì per-token latency ngang GPT-5.4 nhưng cần ít token hơn để hoàn thành cùng tác vụ, nghĩa là tác vụ xong nhanh hơn và chi phí thấp hơn theo từng job
  • Lần đầu tiên, một model OpenAI reasoning nhất quán từ 128K đến 1M token mà không sụt hiệu suất
  • API bị trì hoãn vì GPT-5.5 được phân loại High trên cả khả năng sinh học/hóa học lẫn an ninh mạng theo Preparedness Framework của OpenAI
  • Giá per-token tăng: $5/$30 cho GPT-5.5 và $30/$180 cho GPT-5.5 Pro (input/output tính theo 1M token)

GPT-5.5 gồm những model nào và phân phối ra sao?

GPT-5.5 thực ra là hai model riêng biệt với mục tiêu khác nhau.

GPT-5.5 là model tiêu chuẩn, phủ rộng cho người dùng Plus, Pro, Business và Enterprise trong ChatGPT, đồng thời có mặt trên tất cả gói trả phí trong Codex bao gồm Edu và Go.

GPT-5.5 Pro là phiên bản mạnh hơn, thiết kế cho câu hỏi khó và yêu cầu độ chính xác cao, chỉ dành cho người dùng Pro, Business và Enterprise trong ChatGPT, với định hướng rõ ràng vào tác vụ đòi hỏi trong kinh doanh, pháp lý, giáo dục và khoa học dữ liệu.

Sự phân tách này quan trọng khi đọc benchmark và giá: GPT-5.5 Pro nhất quán cao hơn một bậc về hiệu suất và đắt hơn khoảng 6 lần mỗi token.


Điểm mới thực sự của GPT-5.5 là gì?

GPT-5.5 mang đến hai cải tiến cốt lõi đáng chú ý.

Cải tiến thứ nhất: Hiệu quả token

Per-token latency của GPT-5.5 ngang với GPT-5.4, nghĩa là mỗi token ra đời cùng tốc độ. Điều tạo ra khác biệt là token efficiency: model cần ít token hơn để hoàn thành cùng tác vụ, nhờ ít bước reasoning hơn, ít retry và ít backtracking hơn. Kết hợp lại, tác vụ hoàn thành nhanh hơn tổng thể và chi phí thấp hơn theo từng job, dù giá per-token đã tăng lên.

Cải tiến thứ hai: Long-context reasoning thực sự

GPT-5.4 hỗ trợ context dài về mặt kỹ thuật nhưng hiệu suất sụp đổ sau 128K token. Hỏi nó reasoning trên một codebase đầy đủ, hợp đồng dài hay bản transcript nhiều giờ, và kết quả ở phần cuối window trở nên kém tin cậy. GPT-5.5 duy trì hiệu suất qua 128K, 256K và đến 1M token. Đây là model OpenAI đầu tiên mà toàn bộ context window thực sự dùng được trong thực tế.

OpenAI cũng cho biết một phiên bản nội bộ của GPT-5.5 đã góp phần tạo ra bằng chứng mới trong lĩnh vực tổ hợp học, cụ thể về off-diagonal Ramsey number — tín hiệu rõ ràng rằng GPT-5.5 đang được dùng trong nghiên cứu khoa học chủ động, không chỉ là benchmark lab.


GPT-5.5 đạt kết quả như thế nào trên benchmark long-context?

Benchmark đáng chú ý nhất trong lần phát hành này đo khả năng reasoning trên context dài theo hai loại bài kiểm tra.

MRCR needle test là dạng "kim trong đống rơm": model được đưa một tài liệu dài với các thông tin cụ thể được ẩn bên trong, sau đó được yêu cầu truy xuất lại chúng. Điểm số cao hơn cho thấy model thực sự sử dụng toàn bộ context được cung cấp.

Graphwalks test khó hơn. Model phải duyệt qua một cấu trúc đồ thị được nhúng trong context theo thuật toán BFS (breadth-first search) — đây là bài đánh giá reasoning trên long context, không chỉ đơn giản là truy xuất thông tin.

Kết quả tổng thể cho thấy GPT-5.5 tốt hơn rõ rệt so với GPT-5.4 khi context vượt 128K token. Đáng chú ý, Claude Opus 4.7 của Anthropic dẫn đầu trên hầu hết các bài Graphwalks theo kết quả được công bố.


GPT-5.5 được phân loại an toàn như thế nào và tại sao API bị trì hoãn?

GPT-5.5 được phân loại High trên cả khả năng sinh học/hóa học lẫn an ninh mạng theo Preparedness Framework của OpenAI. Đây là lý do trực tiếp khiến API bị trì hoãn — khác với thông lệ thường thấy là phát hành API đồng thời với ChatGPT. OpenAI cho biết phục vụ model được phân loại High ở quy mô API đòi hỏi các biện pháp bảo vệ bổ sung đang được hoàn thiện.

Điều này dẫn đến hai hệ quả thực tế:

  • Người dùng thông thường sẽ gặp classifier chặt hơn trên các yêu cầu liên quan đến an ninh mạng — OpenAI thừa nhận một số từ chối này có thể gây khó chịu
  • OpenAI ra mắt Trusted Access for Cyber: chương trình cho phép các chuyên gia bảo mật đã được xác minh đăng ký tại chatgpt.com/cyber để nhận ít hạn chế hơn trên công việc bảo mật hợp lệ

Đây là lần đầu tiên OpenAI chính thức phân tầng quyền truy cập an ninh mạng dựa trên danh tính người hỏi — một bước đi đáng theo dõi cho toàn ngành.


GPT-5.5 có giá bao nhiêu?

GPT-5.5 có giá per-token cao hơn GPT-5.4, nhưng OpenAI lập luận rằng chi phí thực tế mỗi tác vụ thấp hơn nhờ token efficiency cải thiện.

Model Input (per 1M token) Output (per 1M token)
GPT-5.5 $5 $30
GPT-5.5 Pro $30 $180

Với người dùng ChatGPT và Codex, quyền truy cập đã có ngay hôm nay theo gói đăng ký hiện tại. Với người dùng API, cần chờ thêm vì vấn đề phân loại an toàn nêu trên.


Kết luận

GPT-5.5 là bản cập nhật năng lực tăng dần nhưng đi kèm thay đổi chính sách không tăng dần. Model nhanh hơn theo từng tác vụ, tốt hơn rõ rệt trên long-context reasoning, và lần đầu tiên context window 1 triệu token của OpenAI thực sự hoạt động đúng như kỳ vọng. Đồng thời, đây là lần đầu tiên OpenAI phân tầng quyền truy cập an ninh mạng theo danh tính người dùng — một bước đi đáng theo dõi cho toàn ngành.

Điều cần theo dõi tiếp là hiệu suất thực tế so với benchmark được công bố khi model được dùng rộng rãi hơn, đặc biệt trên các tác vụ agentic và scientific research mà OpenAI đang nhấn mạnh.


Nguồn: Infinity News — trang tin tức chuyên cung cấp các bài phân tích chuyên sâu về Khoa học, Công nghệ và Đời sống, giúp cập nhật các xu hướng mới nhất.


All Rights Reserved

Viblo
Let's register a Viblo Account to get more interesting posts.