Walmart là nhà bán lẻ lớn nhất thế giới và là công ty lớn nhất thế giới về doanh thu, với hơn hai triệu nhân viên và 20.000 cửa hàng tại 28 quốc gia. Với các hoạt động ở quy mô này, không có gì ngạc nhiên khi họ đã nhận thấy giá trị trong phân tích dữ liệu từ lâu. Vào năm 2004, khi cơn bão Sandy tấn công vào Hoa Kỳ, họ đã phát hiện ra rằng những hiểu biết bất ngờ có thể được đưa ra ánh sáng khi dữ liệu được nghiên cứu một cách tổng thể, thay vì các bộ riêng lẻ. Cố gắng dự báo nhu cầu cung cấp khẩn cấp khi đối mặt với cơn bão Sandy đang đến gần, CIO Linda Dillman đã đưa ra một số thống kê đáng ngạc nhiên. Như là đèn pin và các thiết bị khẩn cấp, dự báo thời tiết xấu đã dẫn đến sự gia tăng doanh số của bánh Pop-Tarts dâu tây ở một số địa điểm khác. Nguồn cung bổ sung trong số này đã được gửi đến các cửa hàng trong phạm vi đường đi của cơn bão Frances năm 2012 và được bán cực kỳ tốt.
Walmart đã phát triển bộ phận Phân tích và Dữ liệu Lớn của họ một cách đáng tin cậy kể từ đó, liên tục duy trì đỉnh cao. Năm 2015, công ty tuyên bố họ đang trong quá trình tạo ra đám mây dữ liệu riêng lớn nhất thế giới, để cho phép xử lý 2,5 petabyte thông tin mỗi giờ.
Dữ liệu lớn giúp giải quyết vấn đề gì?
Siêu thị bán hàng triệu sản phẩm cho hàng triệu người mỗi ngày. Nó là một ngành công nghiệp cạnh tranh khốc liệt mà các nước phát triển dựa vào để cung cấp cho dân cư những nhu yếu phẩm hàng ngày. Các siêu thị cạnh tranh không chỉ về giá mà còn về dịch vụ khách hàng và tính tiện lợi. Có đúng sản phẩm ở đúng nơi, đúng thời điểm, vì vậy những người phù hợp có thể mua chúng, cung cấp những vấn đề hậu cần rất lớn. Các sản phẩm phải có giá phù hợp đến từng xu, để duy trì tính cạnh tranh. Và nếu khách hàng thấy họ không thể có được mọi thứ họ cần trong một cửa hàng, họ sẽ tìm nơi nào khác để mua sắm phù hợp hơn với lịch trình bận rộn của họ.
Làm thế nào để dữ liệu lớn ứng trong thực tiễn?
Vào năm 2011, với nhận thức ngày càng tăng về cách sử dụng dữ liệu để hiểu nhu cầu của khách hàng và cung cấp cho họ các sản phẩm họ muốn mua, Walmart đã thành lập @WalmartLabs và Đội “Fast Big Data Team” của họ để nghiên cứu và triển khai các sáng kiến dẫn đầu dữ liệu mới trên toàn doanh nghiệp.
Đỉnh cao của chiến lược này được gọi là Data Cafe, một trung tâm phân tích hiện đại tại các trụ sở của Bentonville, Arkansas. Tại Data Cafe, nhóm phân tích có thể theo dõi 200 luồng dữ liệu bên trong và bên ngoài theo thời gian thực, bao gồm cơ sở dữ liệu 40 petabyte của tất cả các giao dịch bán hàng trong những tuần trước.
Phân tích kịp thời dữ liệu thời gian thực được coi là chìa khóa để thúc đẩy hiệu quả kinh doanh. Naveen Peddamail – Nhà phân tích thống kê cấp cao của Walmart – nói: Nếu bạn không thể hiểu rõ hơn cho đến khi bạn phân tích doanh số của bạn trong một tuần hoặc một tháng, thì bạn đã mất doanh số trong thời gian đó. Mục tiêu của chúng tôi là luôn luôn có được thông tin cho các đối tác kinh doanh của chúng tôi nhanh nhất có thể, để họ có thể hành động và cắt giảm thời gian quay vòng. Đó là phân tích chủ động và phản ứng.
Các nhóm từ bất kỳ bộ phận nào của doanh nghiệp được mời đến thăm Data Cafe với các vấn đề về dữ liệu của họ và làm việc với các nhà phân tích để đưa ra giải pháp. Ngoài ra còn có một hệ thống theo dõi các chỉ số hiệu suất trên toàn công ty và kích hoạt cảnh báo tự động khi họ đạt đến một mức nhất định – mời các nhóm chịu trách nhiệm nói chuyện với nhóm dữ liệu về các giải pháp có thể.
Peddamail đưa ra một ví dụ về một đội tạp hóa đang gặp khó khăn để hiểu tại sao doanh số bán các sản phẩm cụ thể được giảm bất ngờ. Một khi dữ liệu của họ nằm trong tay các nhà phân tích của Data Cafe, họ rất nhanh chóng nhận ra rằng sự suy giảm đó có liên quan trực tiếp đến lỗi về định giá. Lỗi ngay lập tức được khắc phục và doanh số phục hồi trong vòng vài ngày.
Bán hàng trên các cửa hàng khác nhau trong các khu vực địa lý khác nhau cũng có thể được theo dõi trong thời gian thực. Một mùa Halloween, Peddamail nhớ lại, số liệu bán bánh quy mới đang được theo dõi, khi các nhà phân tích thấy rằng có một số địa điểm mà họ không bán được. Điều này cho phép họ kích hoạt cảnh báo cho các nhóm bán hàng có trách nhiệm đối với các cửa hàng đó, những người nhanh chóng nhận ra rằng các sản phẩm thậm chí còn chưa được đưa lên kệ. Không hẳn là một thuật toán phức tạp, nhưng nó sẽ không thể thực hiện được nếu không có các phân tích thời gian thực.
Một sáng kiến khác là Dự án “Walmart ’s Social Genome” , chuyên về các cuộc trò chuyện trên phương tiện truyền thông xã hội công cộng và cố gắng dự đoán những sản phẩm mà mọi người sẽ mua dựa trên các cuộc trò chuyện của họ. Họ cũng có dịch vụ Shopycat, dự đoán thói quen mua sắm của mọi người bị ảnh hưởng bởi bạn bè của họ (sử dụng lại dữ liệu truyền thông xã hội) và đã phát triển công cụ tìm kiếm của riêng họ, có tên Polaris, để cho phép họ phân tích các cụm từ tìm kiếm được khách hàng nhập vào trang web.
Kết quả là gì?
Walmart cho biết rằng hệ thống Data Cafe, đã dẫn đến việc giảm thời gian từ một vấn đề được phát hiện trong các con số, thành một giải pháp được đề xuất từ trung bình từ hai đến ba tuần xuống còn khoảng 20 phút.
Dữ liệu sử dụng để làm gì?
Dữ liệu “Data Cafe” sử dụng cơ sở dữ liệu được làm mới liên tục bao gồm 200 tỷ hàng dữ liệu giao dịch – và đó chỉ đại diện cho vài tuần gần đây nhất của doanh nghiệp!
Trên hết, nó lấy dữ liệu từ 200 nguồn khác, bao gồm dữ liệu khí tượng, dữ liệu kinh tế, dữ liệu viễn thông, dữ liệu truyền thông xã hội, giá xăng và cơ sở dữ liệu về các sự kiện diễn ra trong khu vực lân cận các cửa hàng Walmart.
Các chi tiết kỹ thuật là gì?
Cơ sở dữ liệu giao dịch thời gian thực của Walmart , bao gồm 40 petabyte dữ liệu. Mặc dù khối lượng dữ liệu giao dịch này rất lớn, nhưng nó chỉ bao gồm từ dữ liệu của những tuần gần đây nhất, vì đây là nơi mà giá trị, theo như phân tích thời gian thực, được tìm thấy. Dữ liệu từ các cửa hàng của chuỗi, các bộ phận trực tuyến và các đơn vị công ty được lưu trữ tập trung trên Hadoop (một hệ thống lưu trữ dữ liệu và quản lý dữ liệu phân tán).
CTO Jeremy King đã mô tả phương pháp này là “dữ liệu dân chủ” như mục đích là để làm cho nó có sẵn cho bất cứ ai trong doanh nghiệp có thể tận dụng nó. Tại một số thời điểm sau khi áp dụng khung Hadoop phân tán vào năm 2011, các nhà phân tích đã lo ngại rằng khối lượng dữ liệu đang phát triển với tốc độ có thể cản trở khả năng phân tích của họ. Do đó, chính sách quản lý thu thập dữ liệu thông minh của người dùng đã được áp dụng, bao gồm thiết lập một số hệ thống được thiết kế để tinh chỉnh và phân loại dữ liệu trước khi được lưu trữ. Các công nghệ khác đang được sử dụng bao gồm Spark, Cassandra, ngôn ngữ R, SAS được sử dụng để phát triển các ứng dụng phân tích.
Bất kỳ thử thách nào cũng đều vượt qua?
Với một hoạt động phân tích đầy tham vọng như kế hoạch của Walmart, việc mở rộng nhanh chóng đòi hỏi một lượng lớn nhân viên mới và việc tìm đúng người với các kỹ năng phù hợp tỏ ra khó khăn. Vấn đề này không được giới hạn ở Walmart: một cuộc khảo sát gần đây của các nhà nghiên cứu Gartner cho thấy hơn một nửa doanh nghiệp cảm thấy khả năng thực hiện phân tích Dữ liệu lớn của họ bị cản trở bởi khó khăn trong việc tìm kiếm tài năng phù hợp.
Một trong những phương pháp tiếp cận Walmart đã giải quyết vấn đề này là để chuyển sang cuộc thi trên trang web Kaggle – do cộng đồng các nhà khoa học dữ liệu đóng góp.
Kaggle đặt cho người dùng trang web một thách thức liên quan đến việc dự đoán các sự kiện quảng cáo và theo mùa như bán hàng và giải phóng mặt bằng sẽ ảnh hưởng đến doanh số của một số sản phẩm khác nhau. Những người đã đưa ra các mô hình phù hợp nhất với dữ liệu thực tế do Walmart thu thập được mời để ứng tuyển vào các vị trí trong nhóm khoa học dữ liệu. Trên thực tế, một trong những người thấy mình làm việc cho Walmart sau khi tham gia cuộc thi là Naveen Peddamail, người mà được đề cập vào phần trên.
Khi một nhà phân tích mới bắt đầu tại Walmart, họ được đưa vào Chương trình “Analytics Rotation”, cho phép họ chuyển qua từng nhóm khác nhau, chịu trách nhiệm về công việc phân tích, để có được cái nhìn tổng quan về cách phân tích được sử dụng trên toàn doanh nghiệp.
Nhà tuyển dụng cao cấp của Walmart, Mandar Thakur nói: Cuộc thi Kaggle đã tạo ra một tiếng vang về Walmart và tổ chức phân tích của chúng tôi. Mọi người luôn biết Walmart đã tạo ra và có rất nhiều dữ liệu, nhưng phần hay nhất là điều này cho mọi người thấy cách chúng tôi sử dụng nó một cách chiến lược.
Các điểm chính & học tập được là gì?
Các siêu thị là các doanh nghiệp lớn, nhanh, liên tục thay đổi, phức tạp, nhiều hệ thống rời rạc, là một doanh nghiệp lý tưởng để áp dụng phân tích Dữ liệu lớn.
Thành công trong kinh doanh được thúc đẩy bởi sự cạnh tranh. Walmart luôn dẫn đầu trong các sáng kiến dựa trên dữ liệu, chẳng hạn như các chương trình trung thành và khen thưởng, và bằng cách hết lòng cam kết với những tiến bộ mới nhất trong các phân tích đáp ứng, thời gian thực mà họ đã cho thấy họ có kế hoạch duy trì tính cạnh tranh.
Các công ty bán lẻ trên mạng có thể được coi là “công nghệ thấp ” gần như không có ý nghĩa gì với Walmart, nhưng Alibaba, Amazon là những đối thủ nặng cân trên mặt trận sử dụng sức mạnh sắc bén của phân tích Dữ liệu lớn. Mặc dù, có nhiều thuận lợi về các lựa chọn cung cấp, thông tin khách hàng, thói quen sử dụng, sở thích và họ sẵn sàng lên xe tới cửa hàng mua đồ. Nhưng vẫn còn một thị trường khổng lồ để các doanh nghiệp sử dụng phân tích tốt nhất để tăng hiệu quả và cải thiện trải nghiệm khách hàng của họ sẽ thành công.
—
Team dịch ITAN
Recent Comments