+23

[Paper Explained] Product Quantization for Approximate Nearest Neighbor Search

  • Keyword: Product Quantization, Approxiamate Nearest Neighbor Search, Similar Search, Deep Binary Hashing, Polysemous Codes, Binary Hash Codes

  • Kĩ năng đọc hiểu paper không chỉ là 1 kĩ năng cần thiết đối với những người làm nghiên cứu hay researcher mà còn đối với những người đang làm về machine learning, deep learning nói chung: machine learning engineer, data analysis, data scientist, ... Đó cũng là một cách để cập nhật được các kiến thức mới; trau dồi, củng cố thêm các kiến thức nền tảng, nhất là trong thời kì phát triển nở rộ của machine learning và deep learning hiện nay.

  • Đây cũng là bài blog đầu tiên của mình trong loạt bài Paper Explained nhằm giải thích và implement lại các thuật toán, các phương pháp với code kèm theo. Tất nhiên, trong quá trình viết bài blog này, mình có tham khảo từ khá nhiều nguồn, có thể còn có những sai sót, mọi ý kiến phản hồi hay thắc mắc, các bạn vui lòng comment bên dưới bài post hoặc gửi mail về địa chỉ: phan.huy.hoang@framgia.com. Rất cảm ơn các bạn!

  • Papers

Giới thiệu chung về ANN Search

  • Lấy ví dụ Flickr, 1 trang mạng xã hội chia sẻ ảnh nổi tiếng trên thế giới, như trong bài blog trước mình cũng đã có giới thiệu về Semantic Search, có một chức năng khá thú vị là tìm kiếm các ảnh tương đồng. Về bản chất, mỗi ảnh đều đã được biểu diễn bởi 1 vector N chiều. Nhiệm vụ bây giờ là tìm kiếm các vector tương đồng trên toàn bộ tập dữ liệu với các metric quen thuộc như: cosine, euclid, .. Câu chuyện sẽ không có gì đáng nói nếu tập dữ liệu của bạn là nhỏ, nhưng với tập dữ liệu đến hàng tỉ ảnh của Flickr, vấn đề sẽ trở nên nan giải hơn rất nhiều. Việc tìm kiếm và so sánh lần lượt từng vector trên toàn bộ tập dữ liệu tỏ ra không khả thi, ..

  • Trong khoảng 1 thập niên gần đây, rất nhiều các phương pháp về ANN search được đề xuất, điển hình như 1 số phương pháp quen thuộc như: LSH (Localy Sensitive Hasing), tree-based method, .. Tuy nhiên, các phương pháp đó tỏ ra khá hiệu quả với tập dữ liệu vừa và nhỏ, số lượng có thể lên đến hàng triệu sample, nhưng đối với tập dữ liệu lớn và rất lớn lên đến hàng tỉ ảnh như của Flickr thì hoàn toàn không đáp ứng được về mặt thời gian và chi phí lưu giữ.

  • Cùng lúc đó, 1 số phương pháp tìm kiếm lân cận được đề xuất liên quan đến việc sử dụng short-codes. Trong đó, 2 phương pháp về short-code-based đáng chú ý là: Binary-basedPQ-based (Product-Quantization-based). Phương pháp Binary-based ánh xạ vector đầu ra (có thể thu được sau khi cho ảnh qua 1 mạng CNN để thu được feature vector) sang một vector nhị phân (N chiều, mỗi phần tử được biểu diễn bởi 2 giá trị 0 hoặc 1). Phương pháp Binary-based tỏ ra khá hiệu quả với thời gian tính toán khá nhanh, trong khi đó, phương pháp PQ-based tỏ ra chính xác hơn với cùng một chi phí bộ nhớ. Phương pháp PQ-based mình sẽ đề cập kĩ hơn bên dưới, Binary-based method sẽ được mình đề cập trong bài blog tiếp theo.

Vector Quantization

  • Ý tưởng ban đầu sử dụng Vector Quantization. Cụ thể, thay vì tìm kiếm trên 1 tỉ bức ảnh thì ta phân cụm với k-means được 1 triệu cluster chẳng hạn, mỗi cluster ứng với 1 centroid. Khi thực hiện tìm kiếm với query là một bức ảnh, sau khi thực hiện feature engineering thu được 1 vector N chiều, vector đó sẽ được so sánh với các centroid để tìm ra centroid gần nhất. Từ đó, chỉ cần so sánh các ảnh trong cluster đó với query vector. Kĩ thuật này dùng để xấp xỉ 1 vector bằng 1 vector khác, trong trường hợp này là centroid, hay kĩ thuật Vector Quantization. Tuy nhiên, việc phân cụm ra 1 triệu cluster và so sánh trong cluster gần nhất vẫn rất tốn thời gian, 1 kĩ thuật đơn giản hơn được đề xuất gọi là Product Quantization. Product Quantization là một trong những phương pháp tỏ ra khá hiệu quả trong việc handing với tập dữ liệu lớn (large-scale data). Mỗi vector sẽ được chia nhỏ (split) và được ánh xạ thành các short code hoặc PQ-code, khi phân cụm ta tiến hành ngay trên tập vector đã được chia nhỏ đó (sub-vectors). Theo code.flickr.netForum Machine Learing cơ bản

Product Quantization

  • Trước khi đi sâu vào phân tích thuật toán với code kèm theo, trong paper về Product Quantization của mình, tác giả Jegou có miêu tả:
  1. PQ can be used to compress high-dimensional feature vector: compress ở đây không liên quan đến dimension reduction (giảm chiều dữ liệu). Về bản chất, PQ thực hiện chia nhỏ tập vector thành tập các sub-vectors, sau đó thực hiện lưu giữ các index centroids, ánh xạ sang short-codes và khoảng cách từ query-vector tới tập PQ-code được tính toán và lưu giữ vào 1 bảng đối chiếu (look-up table)
  2. The distance between an original vector and a PQ-encoded code can be efficiently approximated: trong paper, tác giả đề cập việc tính toán xấp xỉ vector gốc ban đầu với short-codes hay Asymmetric distance computation, từ đó xây dựng bảng đối chiếu để tiến hành query sau này.
  3. Fast search system can be built by combining PQ-encoding and inverted indexing: bằng việc sử dụng một bảng đối chiếu (look-up table) để xác định centroids cho từng sub-vectors. Từ đó, tác giả đề cập tới IVFADC (inverted file system with the asymmetric distance computation) để tiến hành cải thiện tốc độ truy vấn.

Encoding

  • Với 1 vector D chiều xRDx \in \mathbb{R}^D, ta tiến hành chia nhỏ vector thành M sub-vectors:

Imgur

với sub-vector thứ mm được kí hiệu: xmRD/Mx^m \in \mathbb{R}^{D/M}, m{1,...,M}m \in \{1, ..., M\}.

  • Tiếp theo, ta encode vector dưới dạng các short-codes. Từng sub-codebook trên tập sub-vector thứ m được định nghĩa: Cm={ckm}k=1KC^m = \{c^m_k\}^K_{k=1} với m{1,...,M}m \in \{1,...,M\} và ta gọi mỗi ckmRD/Mc^m_k \in \mathbb{R}^{D/M} là 1 sub-codeword. Số lượng sub-codewords K của từng sub-codebook ở đây là tham số được xác định bởi người dùng, chính là số lượng cluster khi thực hiện k-means trên tập sub-vector thứ mm. Như vậy, ta chạy k-means MM lần ứng với từng tập sub-vector thứ mm.

  • 1 vector đầu vào xx được encode như sau: 1 sub-encoder ứng với sub-vector thứ mm của xx được định nghĩa: im:RD/M{1,...,K}i^m : \mathbb{R}^{D/M} \to \{1,...,K\} hay imi^m bao gồm các giá trị từ 1 đến K, ứng với K cluster trong 1 tập sub-vector thứ mm:

Imgur

hay im(xm)i^m(x^m) là hàm trả về index thứ kk với k{1,...,K}k \in \{1,...,K\} ứng với sub-codeword gần nhất hay centroied gần nhất.

  • Tiếp đó, short-codes của vector xx được định nghĩa như sau:

Imgur

là 1 mảng gồm MM giá trị, mỗi giá trị là index thứ kk được tính toán với sub-vector thứ mm của xx như bên trên. Và ta gọi i(x)i(x) thu được là 1 short-codes hay PQ-code của vector xx. Hàm mất mát ứng với 1 vector xx khi được thực hiện encode sang 1 short-code như sau:

Imgur

hay tìm khoảng cách nhỏ nhất giữa sub-vector thứ mm của xx với tập sub-codewords (centroids) thứ mm (gồm KK sub-codeword), rồi cộng dồn MM phần (MM sub-vectors của xx) khoảng cách đó lại.

Hình minh họa:
  • Lấy ví dụ bạn có 1 tập dữ liệu với gồm 50000 ảnh, mỗi ảnh sau khi thực hiện feature extraction qua mạng CNN thu được 1 vector 1024D. Như vậy, ta có 1 ma trận: 50000x1024

image_vectors

  • Ta tiến hành chia nhỏ (split) từng vector thành 8 tập sub-vectors, mỗi sub-vectors là 128D (128 * 8 = 1024). Khi đó, ta thu được một tập hợp các sub-vectors như hình bên dưới:

vector_slice

  • Ta thực hiện phân cụm với thuật toán k-means với từng tập sub-vectors của 50000 ảnh (ứng với từng cột sub-vectors như hình dưới), kết quả thu được là một tập các cụm của sub-vectors:

kmeans_clustering

  • Khi đó, mỗi cột (8 cột) được gọi là 1 sub-codebook và mỗi cụm (256 cụm mỗi sub-codebook) được gọi là một sub-codeword (mỗi sub-codeword ứng với 1 centroid. Sau khi thu được các cluster và đánh index từ 1->256, ta tính toán theo 2 công thức

Imgur

Imgur

thu được short-code tương ứng với vector đầu vào xx (hàng xanh lá cây như hình bên dưới)

compression

  • Giả sử với 1 vector ban đầu 1024D 32-bit floats (tương đương 4096 bytes). Sau khi chia nhỏ vector, mỗi sub-vector lại có kích thước 128D 32-bit floats (4096 bytes). Bởi vì, ta có 256 centroid (cluster) nên chỉ cần dùng 8-bits để lưu giữ các centroid id. Với phương pháp Lossy Compression này, ta giảm thiểu được bộ nhớ khi truy vấn đi rất nhiều lần, đồng thời, thời gian tìm kiếm cũng nhanh chóng hơn bằng việc xấp xỉ vector ban đầu bằng PQ-code.
Code minh họa:
import numpy as np
from scipy.cluster.vq import vq, kmeans2
from scipy.spatial.distance import cdist


def train(vec, M, Ks=256):
    '''
    :param M: số lượng sub-vectors của từng vector
    :param Ks: số cluster áp dụng trên từng tập sub-vectors
    '''
    Ds = int(vec.shape[1] / M)  # số chiều 1 sub-vector
    # tạo M codebooks
    # mỗi codebook gồm Ks codewords
    codeword = np.empty((M, Ks, Ds), np.float32)

    for m in range(M):
        vec_sub = vec[:, m * Ds: (m + 1) * Ds]
        # thực hiện k-means trên từng tập sub-vector thứ m
        centroids, labels = kmeans2(vec_sub, Ks)
        # centroids: (Ks x Ds)
        # labels: vec.shape[0]
        codeword[m] = centroids

    return codeword


def encode(codeword, vec):
    # M sub-vectors
    # Ks clusters ứng với từng tập sub-vector 
    # Ds: số chiều 1 sub-vector
    M, Ks, Ds = codeword.shape

    # tạo pq-code cho n samples (với n = vec.shape[0])
    # mỗi pq-code gồm M giá trị
    pqcode = np.empty((vec.shape[0], M), np.uint8)

    for m in range(M):
        vec_sub = vec[:, m * Ds: (m + 1) * Ds]
        # codes: 1 mảng gồm n phần tử (n = vec.shape[0]), lưu giữ cluster index gần nhất của sub-vector thứ m của từng vector
        # distances: 1 mảng gồm n phần từ (n = vec.shape[0]), lưu giữ khoảng cách giữa sub-vector thứ m của từng vector với centroid gần nhất
        codes, distances = vq(vec_sub, codeword[m])
        # codes: vec.shape[0]
        # distances: vec.shape[0]
        pqcode[:, m] = codes

    return pqcode

Xây dựng look-up table

  • Với PQ-code đã được sinh ra đối với từng vector, câu hỏi đặt ra là: với 1 query vector yy, làm sao ta tính khoảng cách giữa vector yy đó với các PQ-code được lưu giữ. Khi đó, khoảng cách giữa query vector yy và các vector gốc ban đầu (các vector ứng với từng PQ-code) có thể được xấp xỉ khoảng cách gọi là Asymmetric Distance Computation.

  • Ta định nghĩa 1 query vector yRDy \in \mathbb{R}^D và 1 PQ-code ix=[i1,...,iM]T{1,...,K}Mi_x = [i^1,...,i^M]^T \in \{1,...,K\}^M. Để xấp xỉ khoảng cách giữa query vector và vector gốc của PQ-code (hay d(y,x)2d(y, x)^2), ta định nghĩa 1 khoảng cách bất đối xứng (Asymmetric Distance) d(.,.)2\overline{d}(.,.)^2 là khoảng cách giữa query vector và vector được decode từ PQ-code hay: d(y,x)2d(y,x)2=d(y,x)2d(y, x)^2 \approx \overline{d}(y, x)^2 = d(y, \overline{x})^2 với x\overline{x} là vector được decode từ PQ-code.

  • Quay lại với query vector yy, với mỗi sub-vector của yy: ymRD/M(m{1,...,M})y^m \in \mathbb{R}^{D/M} (m \in \{1,...,M\}), ta tính toán khoảng cách giữa ymy^m với KK sub-codewords ckmCmc^m_k \in C^m, và lưu giữ các giá trị đó vào 1 look-up table (bảng đối chiếu) A:{1,...,M}×{1,...,K}RA: \{1,...,M\} \times \{1,...,K\} \to \mathbb{R} hay 1 ma trận có kích thước M×KM \times K được định nghĩa như sau:

A(m,k)=d(ym,ckm)2\begin{aligned} A(m, k) = d(y^m, c^m_k)^2 \end{aligned}

  • Với 1 bộ cơ sở dữ liệu PQ-codes ix=[i1,...,iM]Ti_x = [i^1,...,i^M]^T, ADC được tính toán như sau:

Imgur

  • Khoảng cách giữa ymy^m với tập sub-codeword thứ mm đã được tính toán và lưu giữ trong ma trận A, cộng MM giá trị ứng với MM sub-vector của yy thu được khi đối chiếu với look-up table, ta thu được ADC.
Code minh họa:
def search(codeword, pqcode, query):
    M, Ks, Ds = codeword.shape

    dist_table = np.empty((M, Ks), np.float32)

    for m in range(M):
        query_sub = query[m * Ds: (m + 1) * Ds]
        dist_table[m, :] = cdist([query_sub], codeword[m], 'sqeuclidean')[0]

    dist = np.sum(dist_table[range(M), pqcode], axis=1)

    return dist


if __name__ == '__main__':
    N, Nt, D = 10000, 2000, 128
    # 10,000 128-dim vectors to be indexed
    vec = np.random.random((N, D)).astype(np.float32)
    vec_train = np.random.random((Nt, D)).astype(
        np.float32)  # 2,000 128-dim vectors for training
    query = np.random.random((D,)).astype(np.float32)  # a 128-dim query vector

    M = 8  # chia query-vector thành thành M sub-vector
    codeword = train(vec_train, M)  # tiến hành tạo codeword bằng k-means, số cluster lấy mặc định = 256
    pqcode = encode(codeword, vec)  # tạo pqcode lấy tập dữ liệu training
    dist = search(codeword, pqcode, query)  # tạo
    print(dist)
    mind_ids = dist.argsort()[:10]
    for id_ in mind_ids:
        print("Id: {} -> Dist: {}".format(id_, dist[id_]))

Kết quả

[17.090908 13.061664 12.844361 ... 16.18401  16.647713 16.605381]
Id: 9499 -> Dist: 10.84366226196289
Id: 3010 -> Dist: 10.903709411621094
Id: 2983 -> Dist: 11.361068725585938
Id: 5180 -> Dist: 11.394947052001953
Id: 2637 -> Dist: 11.415714263916016
Id: 2121 -> Dist: 11.448192596435547
Id: 2241 -> Dist: 11.763036727905273
Id: 1173 -> Dist: 11.77695083618164
Id: 9613 -> Dist: 11.802627563476562
Id: 6956 -> Dist: 11.836016654968262
  • Các bạn tham khảo code cuối cùng tại đây: GithubGist

  • 1 phương pháp khác cải thiện rất nhiều so với Product Quantization là LOPQ hay Locally Optimized Product Quantization - LOPQ is state-of-the-art for quantization methods theo Flickr Các bạn có thể đọc thêm về LOPQ tại đâyđây. Về thư viện mã nguồn mở, các bạn có thể tham khảo lopq của Yahoo.

Kết luận

  • Trên đây là bài blog giới thiệu về 1 trong các phương pháp Approxiamate Nearest Neighbor Search đời đầu theo hướng short-code-based: Product Quantization. Hi vọng sẽ giúp các bạn hiểu rõ hơn về thuật toán, paper; từ đó, có thể tự tìm hiểu và học hỏi thêm các kiến thức cho riêng mình. Nếu còn sai sót, các bạn vui lòng góp ý bên dưới bài blog hoặc liên hệ về địa chỉ: phan.huy.hoang@framgia.com. Cảm ơn các bạn!

  • Source code trong bài: Github Gist

References


All rights reserved

Viblo
Hãy đăng ký một tài khoản Viblo để nhận được nhiều bài viết thú vị hơn.
Đăng kí