Ngân hàng - Bảo hiểm
Áp dụng Basel II: Thách thức từ cơ sở dữ liệu
Nhuệ Mẫn - 15/10/2016 15:09
Cơ sở dữ liệu là một trong những “vũ khí” cạnh tranh rất quan trọng của các ngân hàng, bởi nó giúp gia tăng số lượng khách hàng, gia tăng lợi nhuận cũng như hạn chế rủi ro…
Các ngân hàng hiện có quá nhiều loại hệ thống cơ sở dữ liệu, thiếu sự đồng nhất, chuẩn mực…

Và điều này càng trở nên quan trọng hơn đối với các ngân hàng Việt khi đang phải dần áp dụng Basel II. Tuy nhiên, đây vẫn là bài toán không hề dễ giải.

Phát biểu tại Diễn đàn Doanh nghiệp Việt Nam 2016 do Phòng Thương mại và công nghiệp Việt Nam (VCCI) tổ chức đầu tuần này, ông Bruce Butler, Tổng giám đốc Home Credit Việt Nam cho biết, dữ liệu lớn chính là thu thập. Tận dụng những dữ liệu chưa được khai thác hiệu quả để tạo ra tầm nhìn chiến lược cho hoạt động kinh doanh, vận hành tổ chức một cách tự động hóa và thông minh hơn. Dữ liệu có thể là kho dữ liệu, quy trình kinh doanh quản lý, hay là dữ liệu từ những ứng dụng công nghệ thông tin quản lý trong kinh doanh…

“Tại sao phải ứng dụng công nghệ dữ liệu lớn vào hoạt động kinh doanh? Ở đây, dữ liệu lớn được xem như là công cụ mới, ứng dụng mới, giúp cho nhà quản lý, nhà nghiên cứu chiến lược kinh doanh có thể thực hiện nhiều hơn những phân tích một cách sâu sắc hơn, trên đa dạng loại dữ liệu. Công nghệ dữ liệu lớn này giúp xác định và đưa ra những dự báo, dự đoán một cách chính xác hơn, những quyết định đúng đắn hơn và quan trọng nhất, đó là tìm ra cơ hội kinh doanh trong thời kỳ cạnh tranh khốc liệt”, ông Butler nói.

Nhìn vào xu hướng toàn cầu trong việc ứng dụng dữ liệu lớn, IDC International Data Corporation - Tổ chức Dữ liệu thế giới IDC cho biết, năm 2015 tổng lợi nhuận đến từ việc ứng dụng dữ liệu lớn đạt khoảng 122 tỷ USD và dự báo sẽ tăng lên 187 tỷ USD vào năm 2019. Với lĩnh vực tài chính - ngân hàng, phân tích của Học viện Quốc tế Mckinsey cho thấy, đây là lĩnh vực yêu cầu rất cao về khả năng truy cập dữ liệu và đưa ra nhiều phân tích chiến lược so với cách ngành khác. Nếu các định chế tài chính tận dụng được sức mạnh của dữ liệu một cách hiệu quả thì sẽ đạt được lợi thế cạnh tranh cao trên thị trường.

Cũng chính bởi vậy, hiện các ngân hàng trên thế giới đã ứng dụng dữ liệu lớn trong hoạt động kinh doanh. Đối với các ngân hàng Việt, điều này cũng vô cùng cấp thiết, nhất là khi sẽ phải áp dụng chuẩn Basel II trong tương lai gần. Bởi việc xây dựng hệ thống quản trị rủi ro theo Basel II nằm trong lộ trình tiếp cận với các chuẩn mực quốc tế, đòi hỏi sự đầu tư lớn về tài chính, nguồn nhân lực, hệ thống công nghệ thông tin và đặc biệt là cơ sở dữ liệu.

Một nghiên cứu của BIDV cho biết, chỉ tính riêng yêu cầu về phân tích chênh lệch dữ liệu của Ngân hàng Nhà nước, số trường dữ liệu yêu cầu đã lên tới 1.878 trường. Trong đó, 686 trường liên quan đến rủi ro tín dụng, 513 trường liên quan đến rủi ro thị trường, 179 trường liên quan đến rủi ro tác nghiệp và 500 trường liên quan đến rủi ro thanh khoản.

TS. Nguyễn Trí Hiếu, chuyên gia kinh tế cho hay: “Có thể nói, một trong những yếu tố đầu tiên và quan trọng nhất khi triển khai Basel II chính là ngân hàng phải có một cơ sở dữ liệu tốt, chính xác, có tính lịch sử tối thiểu từ 5-7 năm và được cập nhật thường xuyên, cũng như một hệ thống quản lý thông tin bài bản, chuyên nghiệp”.

Vậy nhưng, khó khăn đối với đa số các ngân hàng Việt Nam khi triển khai Basel II chính là cơ sở dữ liệu, bởi hệ thống công nghệ ngân hàng lõi (core banking system) tại các ngân hàng hiện có quá nhiều hệ thống khác nhau đang cùng được đầu tư như Flexcube của Oracle, T24 của Temenos…, thậm chí là những kho dữ liệu khác như excel, file hồ sơ…

Thực tế này dẫn đến các báo cáo chiết suất rời rạc, chưa chính xác, không được kiểm duyệt và cập nhật thường xuyên. Hơn nữa, dữ liệu chưa được nhiều ngân hàng trong nước chú trọng thu thập và quản trị một cách có hệ thống trong suốt thời gian dài, trong khi yêu cầu tối thiểu độ dài dữ liệu cho một số mô hình phân tích là 3 năm (ngoại trừ phương pháp tiêu chuẩn không yêu cầu thời gian lịch sử dữ liệu)…

Phân tích thêm về vấn đề này, bà Nguyễn Thuỳ Dương, Phó tổng giám đốc EY Việt Nam nhận định, dữ liệu yêu cầu cho việc tính toán vốn theo phương pháp nội bộ không chỉ bao gồm dữ liệu cho việc tính toán tài sản có rủi ro, mà còn cả dữ liệu để phục vụ cho các mô hình đo lường rủi ro, đặc biệt là rủi ro tín dụng. Các dữ liệu này cần được lưu trữ ít nhất 5 năm và với chất lượng tốt để bảo đảm các mô hình đo lường rủi ro được Ngân hàng Nhà nước phê duyệt…

“Tuy nhiên, thực tế là tại nhiều ngân hàng, quá trình nhập dữ liệu không đảm bảo chất lượng, hoặc bản thân hệ thống công nghệ không hỗ trợ thu thập đủ dữ liệu”, bà Dương nói.

Mặc dù việc xây dựng cơ sở dữ liệu là khó và tốn kém cả về thời gian lẫn tiền bạc, song theo các chuyên gia, điều đó không có nghĩa là “bất khả thi”, cũng như không thể không làm, nếu như các ngân hàng Việt muốn cạnh tranh, tồn tại trong bối cảnh hội nhập hiện nay.

Tin liên quan
Tin khác