THẢO LUẬN

@trandatk Cái này còn tuỳ thuộc vào nghiệp vụ của dự án nữa.

  1. Việc Replay là hệ quả của tính bền vững chứ không phải mục đích ban đầu.

  2. Thực tế thì với lượng dữ liệu lớn như vậy nếu đã có 1 Kafka để thay e lưu thông tin rồi, thì có phải bớt một bước lưu lại ngay lúc đó, cũng tăng performance cho hệ thống.

  3. Nếu tạo thêm nơi để lưu, nếu server chết (mất điện chẳng hạn) thì em nghĩ nên xử lý lưu lại như nào để khôi phục dữ liệu.

0

This is exactly what I was searching for. Your content always adds great value. Keep up the amazing work https://login360.in/data-science-course-in-coimbatore/

0

bạn chưa hiểu ở đoạn nào á?

0

"Chụp 4 góc chỗ bàn/ghế ngồi thi" cái này chụp bằng Camera của laptop à ban?

0

đọc mãi vẫn chưa hiểu lắm , nh mong fen ra nhiều bài , bài nào cuả bạn cũng chất

0
Nov 27th, 3:27 a.m.

Cảm ơn anh vì bài viết

0

I encountered an issue when rotating the algorithm weekly because some users kept an outdated version of the front-end, so their HMAC algorithm was not up to date. Therefore, the backend has to handle requests from both the new and the previous algorithm versions. This helps improve the overall user experience.

0

@giang.nt Tại chủ đề này em chưa thấy ai nói nên em hơi khó hiểu, về cơ bản người ta chỉ cần replay khi có lỗi thôi chứ đúng không anh? Vậy thì mấy cái như kiểu ELK vẫn làm tốt hơn mà, em vẫn chưa thấy ứng dụng của nó ấy

0
Avatar
đã bình luận câu trả lời trong câu hỏi
Nov 26th, 9:27 a.m.

The Salesforce Certified Agentforce Specialist (AI-201) exam is known for being tough, mainly because it demands strong, real-world experience with AI agents, prompt engineering, and Data Cloud integration. But once you clear it, you instantly stand out as a skilled professional in Salesforce’s advanced AI ecosystem—giving you a competitive edge over others who don’t have this expertise. The biggest challenge lies in how quickly Agentforce features evolve and the exam’s high passing requirement of 74%.

When preparing for Salesforce Certified Agentforce Specialist (AI-201) Exam Questions, Certs2Pass is one of the best resources available. Their practice materials are carefully designed to match the real exam’s difficulty and scenario-based style, helping you build the critical thinking and hands-on understanding needed to pass on the first try.

Visit: https://www.certs2pass.com/salesforce/agentforce-specialist-questions

0

Ok thank you bạn đã chia sẻ mình có trang google site như vậy đã ổn chưa bạn nhỉ: https://sites.google.com/d/1Y4b3bizRu3LtcKJL_mbdiwXQypV3RpKP/p/1XU6XPxnlLXT8NvML5x-K1xnIHgZtIqG1/edit

0

em chào anh, em cũng đang tính ôn system design thì nên ôn bằng cách nào và ở đâu ạ, em cảm ơn anh

0
  1. Em thấy nhiều người chọn Kafka để dùng làm Event bus ở ứng dụng Microservices E-com, trong khi NATS hay RabbitMQ mới là lựa chọn đúng theo mục đích hơn. Theo anh thì là tại sao ạ?
  • Do Kafka là Data Hub, không chỉ là Message Bus và nó lưu trữ lại sự kiện => Replay dữ liệu lịch sử. Nên dễ khôi phục lại.
  1. Trong microservices E-com thì chúng ta đã có những pattern như kiểu Outbox pattern hay Saga pattern để gần như đảm bảo tính ACID của dữ liệu, thì tại sao lại cần tính bền vững của Kafka ạ?
  • Như câu trên thì Kafka cho phép đọc lại dữ liệu cũ và Replay lại. Nên tuỳ theo nghiệp vụ của dự án mà sẽ lưu lại event hay tiến trình xử lý đề phòng trường hợp lỗi cần xem lại hoặc replay lại.

=> Tính bền vững của Kafka vẫn cần để lưu lại thông tin để khôi phục

0
Nov 25th, 8:10 a.m.

🫶Anh có thể note cho em các thông số cần phải test về performance vs Stress storage được không ạ, em loay hoay mà không hiểu cũng như không biết cần làm gì và lấy được giá trị expected như thế nào để viết test case nữa ạ. Em cảm ơn anh 🫶

0
Avatar
đã bình luận cho bài viết
Nov 25th, 5:08 a.m.

dẫu biết IT là 1 ngành khô khang, nhưng nghiêm túc như bạn thì nên đi coi thời sự hơn

0
Avatar
đã bình luận cho bài viết
Nov 24th, 3:42 p.m.

Nhờ chỉ cách copy trong phân trang giúp Vd: mỗi trang chỉ hiện 100 dòng, 10.000 dòng tương đương 100 trang Giờ muốn copy nhanh 10.000 dòng đó qua excel 0903726727 (phát)

0

Em thấy nhiều người chọn Kafka để dùng làm Event bus ở ứng dụng Microservices E-com, trong khi NATS hay RabbitMQ mới là lựa chọn đúng theo mục đích hơn. Theo anh thì là tại sao ạ?

Trong microservices E-com thì chúng ta đã có những pattern như kiểu Outbox pattern hay Saga pattern để gần như đảm bảo tính ACID của dữ liệu, thì tại sao lại cần tính bền vững của Kafka ạ?

0
Nov 24th, 8:38 a.m.

tnx

0

@siddu03 ok my fr, let's check your inbox

0

assetnote, payload all the thing, word list on github... Try everything bro!

0
Viblo
Hãy đăng ký một tài khoản Viblo để nhận được nhiều bài viết thú vị hơn.
Đăng kí