nói thì lúc nào cũng dễ hơn làm, việc quy chuẩn hóa một quá trình phát triển, đặc biệt là trong môi trường yêu cầu luôn thay đổi mỗi ngày mỗi giờ như bank là điều khó có thể hoàn thiện ngày một ngày hai, chúc các bạn đạt được điều đó.
@thangnk e viết cho chúng mỗi cái 1 dockerfile riêng thì mỗi cái sẽ có 1 môi trường riêng, trong dockerfile thì e chỉ copy các file cần thiết cho service e cần thôi nhé
@maitrungduc1410 A cho em hỏi thêm chút ạ
Src code của e được để chung ở 1 chỗ duy nhất ấy ạ
Khi các service được định nghĩa như trên, service app của em chỉ chứa flask (không có các method của tensorflow kiểu như load_weight hay predict) thì em làm sao có thể sử dụng được ạ ?
Kiểu em chưa hiểu rõ là src code viết chung nhưng môi trường lại chia rẽ ra thì làm tn để chạy được ấy ạ
Mong a giải đáp giúp em ạ
Chào anh em có thấy anh nói tới BoF dựa trên ý tưởng của BoW nhưng theo đọc thì BoW thì khuyết điểm của phương pháp này là V (Vocabulary) chính điều này làm cho việc xây dựng 1 bộ từ điển trên BoW vô cùng khó và tốn bộ nhớ nhất là các data chưa nhìn thấy. Không biết anh có tìm hiểu về khuyết điểm của BoF hay chưa (vì em thấy BoF dựa trên features vector để tạo mà vector thì theo em nó còn rộng hơn cả V). Mong anh chia sẻ thêm
Cảm ơn anh vì một bài viết rất hay.
Thái Học
uk nếu việc train model của e nó khá là độc lập thì e nên tách nó ra thành 1 service riêng giữ cho các thành phần trong system của e nó vừa đủ và nhỏ gọn
e cho tất cả các service đó join vào chung chung 1 network trong Docker là chúng sẽ giao tiếp được với nhau nhé, ví dụ e cấu hình docker-compose như sau:
như trên thì khi chạy lên cả 4 services được cho join vào chung 1 network default và tại bất kì 1 service nào muốn connect vào service khác thì e dùng tên_service:port :
# ví dụ e đang ở "app" muốn connect tới "s2t"
curl s2t:1234
THẢO LUẬN
nói thì lúc nào cũng dễ hơn làm, việc quy chuẩn hóa một quá trình phát triển, đặc biệt là trong môi trường yêu cầu luôn thay đổi mỗi ngày mỗi giờ như bank là điều khó có thể hoàn thiện ngày một ngày hai, chúc các bạn đạt được điều đó.
@LongThanh.it
code của bạn trên jsfiddle hoạt động không đúng nhé. Nó chỉ đúng với trường hợp số chữ số chia hết cho 3.
OKcase:802333=>802.333
NGcase:5434453=>543.445.3
Bạn có thể tham khảo hàm phía dưới
@vibloanhduong nó chỉ là cảnh báo về các package hơi cũ và có vài package sẽ không dùng trong tương lai nữa thôi mà
cảm ơn bạn, mình cũng đã tìm ra được vài cách xử lý. https://jsfiddle.net/tinhtn/567cxgfr/ Thanks
@vibloanhduong Cái này đâu có lỗi lầm gì đâu bạn, cứ chạy bình thường thôi
mình mới tìm hiểu về ML, cho mình hỏi sao N_EPOCHS = 50 mà mình cho chạy trên Colab nó train hoài luôn, đến epoch 72 vẫn chưa dừng
@hmquan08011996 ok. MÌnh cũng nghĩ là vậy ! Thank bạn vì series này !
câu này đúng sẽ là "nếu Pod của ta được tạo ở một worker node khác thì chúng ta sẽ mất đi data" nha, chỗ này mình viết nhầm. Thank bạn
Bạn đã giải quyết được vấn đề này chưa ạ?Chia sẻ giúp mình, tại mình cũng gặp phải vấn đề tương tự
"nếu Pod của ta được tạo ở một Pod khác thì chúng ta sẽ mất đi data". Câu này là sao vậy ad ?
Thank you b, bài viết rất bổ ích.
@thangnk e viết cho chúng mỗi cái 1 dockerfile riêng thì mỗi cái sẽ có 1 môi trường riêng, trong dockerfile thì e chỉ copy các file cần thiết cho service e cần thôi nhé
Hay quá anh ơi
@maitrungduc1410 A cho em hỏi thêm chút ạ
Src code của e được để chung ở 1 chỗ duy nhất ấy ạ
Khi các service được định nghĩa như trên, service app của em chỉ chứa flask (không có các method của tensorflow kiểu như load_weight hay predict) thì em làm sao có thể sử dụng được ạ ?
Kiểu em chưa hiểu rõ là src code viết chung nhưng môi trường lại chia rẽ ra thì làm tn để chạy được ấy ạ
Mong a giải đáp giúp em ạ
Chào anh em có thấy anh nói tới BoF dựa trên ý tưởng của BoW nhưng theo đọc thì BoW thì khuyết điểm của phương pháp này là V (Vocabulary) chính điều này làm cho việc xây dựng 1 bộ từ điển trên BoW vô cùng khó và tốn bộ nhớ nhất là các data chưa nhìn thấy. Không biết anh có tìm hiểu về khuyết điểm của BoF hay chưa (vì em thấy BoF dựa trên features vector để tạo mà vector thì theo em nó còn rộng hơn cả V). Mong anh chia sẻ thêm Cảm ơn anh vì một bài viết rất hay. Thái Học
uk nếu việc train model của e nó khá là độc lập thì e nên tách nó ra thành 1 service riêng giữ cho các thành phần trong system của e nó vừa đủ và nhỏ gọn
e cho tất cả các service đó join vào chung chung 1 network trong Docker là chúng sẽ giao tiếp được với nhau nhé, ví dụ e cấu hình docker-compose như sau:
như trên thì khi chạy lên cả 4 services được cho join vào chung 1 network
defaultvà tại bất kì 1 service nào muốn connect vào service khác thì e dùngtên_service:port:làm sao để lấy link ảnh v a ơi, e cảm ơn ạ
Anh cho em hỏi là có thể thay đổi layout khi quyền truy cập khác nhau được k ạ
hay ong