Nghiên cứu của chúng tôi cho thấy sự áp dụng của trí tuệ nhân tạo sinh sản đang diễn ra trên nhiều mô hình với các mô hình triển khai, tập dữ liệu và đặc thù ngành rất đa dạng.
Sức mạnh biến đổi của trí tuệ nhân tạo sinh sản đối với các ngành công nghiệp là vô cùng to lớn và chúng tôi tin rằng trí tuệ nhân tạo sẽ hướng tới nơi dữ liệu tồn tại. Luật quyền lực về trí tuệ nhân tạo sinh sản, được phát triển bởi đội ngũ nghiên cứu TheCUBE, mô tả các mô hình áp dụng chúng tôi nhìn thấy đang nổi lên trên đám mây, nội bộ và ở điểm sự cố với rất nhiều mô hình ngành cụ thể đa dạng trên mọi ngành công nghiệp.
Trong phân tích này, chúng tôi xem lại luật quyền lực trí tuệ nhân tạo sinh sản để nắm bắt quá trình áp dụng diễn ra trong các ngành và tổ chức trên toàn thế giới. Chúng tôi giới thiệu dữ liệu khảo sát mới từ nghiên cứu Công nghệ Doanh nghiệp, tìm hiểu một số nhà cung cấp đang được áp dụng hoặc xem xét kỹ lưỡng, với một cái nhìn đặc biệt vào lĩnh vực công nghệ mới nổi với dữ liệu về Hugging Face, Anthropic, Cohere và Jasper.
Chúng tôi cũng bình luận về việc áp dụng của Llama 2 của Meta Platforms và tác động tiềm năng của mã nguồn mở và các bên thứ ba khác lên hình dạng của đường cong. Chúng tôi chia sẻ ước tính tác động doanh thu trí tuệ nhân tạo của Microsoft Azure, mà chúng tôi nhìn thấy tiến tới mức tỷ lệ 2 tỷ đô-la vào cuối năm 2023. Cuối cùng, chúng tôi xem xét tác động của việc tăng cường khả năng phục hồi sinh sản, hoặc RAG, sử dụng các ví dụ thực tế với một số lưu ý về việc triển khai RAG mà các chuyên gia nên xem xét.
Luật quyền lực và nguyên tắc 80/20
Luật quyền lực, còn được gọi là định luật tỷ lệ, là một mối quan hệ Y = aX mũ βeta, trong đó Y và X là các biến quan tâm, βeta là một số mũ, số mũ của luật quyền lực, và là một hằng số không quan trọng đến cuộc thảo luận của chúng ta hôm nay. Cơ chế hoạt động như sau: Nếu X nhân với một hệ số là 10, thì Y sẽ nhân với 10 mũ βeta - ta nói rằng Y "tăng theo tỷ lệ" nhân với X mũ βeta.
Trong toán học, một ví dụ về luật quyền lực mà nhiều người quen thuộc là phân phối Pareto, hay còn được biết đến với luật 80/20. Trong thuật ngữ toán học chính xác, quy tắc nêu rõ rằng 80% các kết quả là kết quả của 20% các nguyên nhân. Đối với mục đích của chúng tôi trong phân tích này, chúng tôi không quá quan tâm đến mối quan hệ nguyên nhân và kết quả, thay vào đó chúng tôi muốn sử dụng hình dạng đường cong để mô tả các mô hình áp dụng chúng tôi nhìn thấy phát triển trong trí tuệ nhân tạo sinh sản và điều đó có thể đồng nghĩa với tổ chức, ngành công nghiệp, các phương án áp dụng khác và ứng dụng của dữ liệu.
Luật quyền lực của trí tuệ nhân tạo sinh sản và ảnh hưởng chéo dài
Luật quyền lực Trí tuệ nhân tạo sinh sản được trình bày ở trên đã được phát triển với đội ngũ nhà phân tích của chúng tôi, bao gồm tác giả, John Furrier và Rob Strechay. Nó mô tả cách chúng tôi nhìn thấy hình dạng của đường cong áp dụng phát triển và dải dài của việc áp dụng trí tuệ nhân tạo sinh sản.
Trong biểu đồ trên, trục Y đại diện cho kích thước các mô hình ngôn ngữ lớn và trục X cho đặc thù ngành của các mô hình ngôn ngữ nguyên. Đường màu cam cho thấy một ví dụ về ngành công nghiệp âm nhạc lịch sử, nơi chỉ có khoảng 4 hãng thu âm chiếm ưu thế trên thị trường. Vì vậy, hình dạng của đường cong là một góc vuông sắc nét.
Trong Gen AI, chúng ta thấy một mẫu hoạt động tương tự nhưng một chút khác biệt ở điểm sau:
- Các công ty siêu mây cùng Nvidia, OpenAI và một số công ty khác sẽ chỉ rất ít, tương tự như đường màu cam;
- Chúng sẽ đào tạo những mô hình LLM khổng lồ nhưng hầu hết các mô hình áp dụng sẽ nhỏ hơn nhiều, tạo ra một phần đuôi dài;
- Phần đuôi dài này sẽ không chỉ xảy ra trên nền tảng đám mây, nơi hầu hết các hoạt động xung quanh gen AI diễn ra ngày hôm nay, mà cũng sẽ rất cụ thể trong từng ngành công nghiệp và dẫn đến triển khai tại chỗ kéo dài đến cạnh xa;
- Chúng tôi tin rằng trường hợp sử dụng phổ biến nhất của AI tại cạnh sẽ chiếm ưu thế từ góc độ trình độ. Và việc suy diễn sẽ xảy ra sử dụng các tập dữ liệu nhỏ hơn trên đám mây và tại chỗ cũng;
- Những đường màu đỏ kéo thân lên bên phải là hậu quả của sự xuất hiện vàng từ hàng loạt mô hình mã nguồn mở của bên thứ ba sẽ và đã gây ảnh hưởng đến thị trường.
Thị trường tiêu dùng thúc đẩy việc áp dụng và đổi mới và gây ra các biến đổi
Các điểm khác được hiển thị trong khung xám ở phía trên bên phải. Chúng tôi tin rằng giống như nhiều làn sóng khác, sự áp dụng của người tiêu dùng, trong trường hợp này là ChatGPT, sẽ kích thích sự đổi mới và lan tỏa vào doanh nghiệp. Nghiên cứu của chúng tôi cho thấy các doanh nghiệp hiện đang trải qua giai đoạn thử nghiệm trước khi đưa vào sản xuất với các trường hợp sử dụng cụ thể rất cụ thể. Hầu hết đang ở giai đoạn đánh giá - có thể lên đến 90% - nhưng những trường hợp ở trong quá trình sản xuất và thành công đang cho thấy lợi nhuận nhanh chóng và chia sẻ lợi ích để đầu tư thêm. Điều này quan trọng vì ngày nay, hầu hết gen AI được tài trợ bằng việc "vay" từ các nguồn ngân sách IT doanh nghiệp khác.
Trở lại với cuộc trò chuyện về kinh tế khối lượng: Chúng tôi cho rằng mô hình tiếp nhận của người tiêu dùng này sẽ dẫn đến những thay đổi đáng kể về kinh tế vận hành tải công việc, từ đó bất ngờ thay đổi các quy tắc kinh tế truyền thống của trung tâm dữ liệu và có thể là các quy tắc kinh tế của điện toán đám mây.
Theo dõi cuộc chiến chip
Chúng tôi đặc biệt quan tâm đến các cuộc chiến chip đang diễn ra. Đối với chúng tôi, mô hình Arm có sức hấp dẫn nhất về mặt sự chín chắn, thời gian ra thị trường, lợi thế hiệu suất trên công suất - nhưng quan trọng nhất là khối lượng khuôn Arm so với các tiêu chuẩn khác. Khối lượng khuôn Arm có thể lên đến 10 lần so với x86 và đường cong hiệu suất từ hệ sinh thái Arm đang tiến triển theo tỷ lệ tăng 2,5 đến 3 lần so với tiến trình Moore's Law trong quá khứ.
Điều này không phải là sự trùng hợp khi Apple đã khởi đầu toàn bộ quá trình này với khối lượng iPhone và là nhà cung cấp khối lượng lớn nhất của TSMC. Nó cũng là nguyên nhân số 1 tạo điều kiện cho sự lãnh đạo của TSMC trong lĩnh vực nhà máy. Nhưng không chỉ là iPhone. Các máy tính xách tay của Apple, Nitro của Amazon Web Services, Graviton, Inferentia và Tranium, Google và Microsoft, Tesla, Oracle với Ampere và nhiều nhà sản xuất khác đều thúc đẩy sự đổi mới này. Ồ đúng vậy - hãy không quên Nvidia. Và các tác động về chi phí liên quan đến đó là vô cùng to lớn theo quan điểm của chúng tôi.
Arm là kiến trúc chi phí thấp và chúng tôi tin rằng sẽ tiếp tục như vậy nhờ kinh tế khối lượng, công cụ hóa mức độ chín chắn và Định luật Wright.
Chúng tôi rõ ràng nhận thức rằng toàn ngành công nghiệp đang cố gắng tìm kiếm các phương án thay thế cho Arm dưới dạng các tiêu chuẩn mã nguồn mở RISC-V và các phương án thay thế cho Nvidia trong GPU. Nhưng trong quan điểm của chúng tôi, đường cong kinh nghiệm xung quanh Arm và Nvidia đã tiến xa so với các đối thủ. Hậu quả là chúng tôi tin rằng cả Arm lẫn Nvidia sẽ duy trì lợi thế về khối lượng trong các thị trường tương ứng qua thập kỷ này.
Lý do mà chúng tôi dành nhiều thời gian suy nghĩ về điều này là chúng tôi nhìn thấy phần đuôi dài của Gen AI và khối lượng lớn các hệ thống nhúng sinh ra các mô hình tiêu thụ dữ liệu mới sẽ hoàn toàn thay đổi kinh tế công nghệ thông tin doanh nghiệp, tương tự như cách x86 thắng cuộc trước RISC ở thời điểm trong quá khứ.
Các chương trình LLM nào mà khách hàng đang áp dụng hoặc đánh giá?
Tiềm năng của việc triển khai 'hybrid AI'
Hãy xem xét cách các nhà quản lý quyết định CNTT nghĩ về những nhà cung cấp mà họ đang áp dụng cho gen AI và cách họ đang nghĩ về các đối tác trong tương lai.
Dữ liệu trên đây được thu thập từ một cuộc phỏng vấn ETR gần đây. Cuộc khảo sát hỏi khách hàng về các sản phẩm đang sử dụng để thực hiện gen AI và những sản phẩm nào đang được đánh giá. Đây là một phần của cuộc khảo sát về đám mây, nên nó thiên vị những nhà cung cấp đám mây, nhưng đó là nơi diễn ra sự đổi mới nhiều nhất ngày nay. Và bạn có thể thấy sự thống trị của OpenAI và Microsoft. Nhớ rằng Microsoft đã nói rằng gen AI đã tạo 300 điểm cơ bản cho Azure trong quý vừa qua, và họ là công ty duy nhất có doanh thu có ý nghĩa từ gen AI (ngoại trừ Nvidia, tất nhiên).
Microsoft đã cho biết rằng Azure đã nhận được lợi nhuận 300 điểm cơ bản từ lĩnh vực AI trong quý này, tương đương khoảng 325 triệu đô la. Chúng tôi dự đoán con số này sẽ đạt gần 500 triệu đô la trong quý tháng 12, tức là tỷ lệ tiêu thụ hằng năm gần 2 tỷ đô la cho Azure AI.
Trên biểu đồ, bạn có thể thấy Vertex AI của Google và Amazon đứng vững trong vị trí mạnh mẽ. Da trắng đã thông báo rằng công cụ Bedrock đã có sẵn để sử dụng chung, vì vậy chúng ta có thể thấy sự tăng trưởng nhanh chóng ở đó như chúng tôi đã báo cáo tuần trước. Chúng tôi cũng tập trung vào watsonx. Theo quan điểm của chúng tôi, IBM đã hiểu rõ và số liệu đang xác nhận sự quan tâm đến việc áp dụng IBM Watson. Oracle cũng là một lựa chọn đáng chú ý khác trên biểu đồ này như là một "nhà chơi khác".
Thông tin mới trên dữ liệu này là tác động của AI kết hợp (hybrid). Ý tưởng mang AI đến dữ liệu. Chúng tôi nghĩ rằng điều này xảy ra trong đám mây, onsite và trên lĩnh vực (edge). Vì đó là nơi dữ liệu sống.
Vài nhà cung cấp ít được biết đến tham gia cuộc đua LLM
Dữ liệu từ Cuộc khảo sát Công nghệ mới nổi của ETR cho chúng ta biết công ty đang đầu tư hoặc đánh giá công nghệ mới. Như bạn đã biết, còn rất nhiều những nhà chơi khác như chúng tôi đã chỉ ra trong biểu đồ quy luật cấp số mũ. Vì thế hãy cùng nhìn vào một số tên ít được biết đến nhưng cũng đáng để chú ý.
Trên đây, chúng tôi hiển thị một biểu đồ từ Cuộc khảo sát Công nghệ mới nổi của ETR. Đây là một phần mới thêm vào cuộc khảo sát mà Giám đốc điều hành mới của ETR quyết định tăng tốc độ thực hiện nhiều lần trong một năm. Cuộc khảo sát ETS này đo lường Tâm trạng Net trên trục thẳng đứng và Chia sẻ Ý tưởng trên trục ngang. Số lượng câu trả lời N vượt quá 1.000. Cuộc khảo sát này chỉ tập trung vào các công ty tư nhân. Lưu ý rằng ETR sẽ thỉnh thoảng thu thập các công cụ mã nguồn mở như TensorFlow được hiển thị ở trên.
Trục đứng đo độ ý định tham gia và trục ngang đo ý thức. Và đây là sự kết hợp của các công cụ học máy và trí tuệ nhân tạo khác nhau, vì vậy không chỉ Limited sản không phải là DNN AI – có trí tuệ nhân tạo khác bạn biết. Chúng tôi rất vui lòng giải thích phương pháp thành công hơn, vì vậy hãy liên hệ chúng tôi nếu bạn muốn biết thêm thông tin về điều đó.
Những gì chúng tôi muốn nhấn mạnh ở đây là:
- OpenAI đã xuất hiện và chiếm ưu thế;
- Thị trường có nhiều nhà cung cấp ngoài OpenAI;
- Các đường chỉ tỷ lệ tiến triển theo chuỗi thời gian cho các kỳ khảo sát khác nhau;
- Hugging Face đã tiến bộ to lớn trên cả hai khía cạnh;
- Cohere, Anthropic và Jasper, một đồng hành cho đội marketing, cũng đang cho thấy triển vọng to lớn.
Bạn có thể thấy sự kết hợp của các nhà cung cấp ML/AI khác bao gồm Databricks, luôn nổi bật, với khả năng kế thừa mạnh mẽ trong khoa học dữ liệu và học máy.
Meta’s Llama 2 có thể là yếu tố thay đổi trò chơi
Yếu tố quan trọng nhất chưa xuất hiện trong bộ dữ liệu ETR cho đến nay là Llama 2 của Meta.
Meta đã giới thiệu Llama vào đầu năm nay và vào tháng 7 đã thông báo về phiên bản Llama 2 với 7 tỷ, 13 tỷ và 70 tỷ tham số. Đó là một mô hình LSTM mã nguồn mở mà Meta đang triển khai nội bộ và đang thu hút sự quan tâm như một lựa chọn thay thế cho OpenAI. Để hiểu rõ hơn, PaLM của Google được cho là được xây dựng với khoảng 500 tỷ tham số và ChatGPT được cho là lên đến 1 nghìn tỷ hoặc nhiều hơn. Vì vậy, Meta đang cho thấy với Llama 2 tiềm năng lớn của các mô hình ngôn ngữ nhỏ hơn.
Điều quan trọng khác mà chúng tôi chưa nói đến là một trong những rào cản quan trọng nhất đối với việc áp dụng gen AI ngày nay là lo ngại về quyền riêng tư, rủi ro pháp lý và tuân thủ quy định. Và vì vậy, quay trở lại Định luật Power của gen AI, nhiều công ty muốn triển khai gen AI trên nội bộ, nơi nhiều dữ liệu nhạy cảm của họ vẫn tồn tại. Hãy nghĩ đến các dịch vụ tài chính, chăm sóc sức khỏe, các ngành công nghiệp được quy định ... và tất nhiên là viễn thông.
Dải đuôi dài có thể không đồng nhất về mặt hình dạng
Không có dữ liệu cứng về điều này, nhưng cuộc trò chuyện của chúng tôi với các nguồn thông tin trong ngành cho thấy hơn 50% triển khai Llama 2 có thể tại chỗ. Ít nhất là phần lớn lượt tải xuống đều từ các công ty có triển khai trung tâm dữ liệu quan trọng. Vì vậy, điều này rơi vào suy nghĩ của chúng tôi về dải đuôi dài và ứng dụng của các mô hình nhỏ hơn.
Rất có thể hơn 50% triển khai Llama 2 được triển khai trong các trung tâm dữ liệu và tại vị trí bên ngoài.
Tuy nhiên, điều này không có nghĩa là bạn sẽ không thấy các mô hình nhỏ hơn chuyên ngành được triển khai trên đám mây – bạn sẽ thấy. Chính điều này phụ thuộc vào vị trí lưu trữ dữ liệu. Lưu ý khác là dải đuôi dài sẽ có những "núi nhồi xuống" dọc theo đường cong (xem bên dưới), nơi sẽ có các tổ chức, đặc biệt là trong các ứng dụng tính toán hiệu năng cao và siêu tính toán, sử dụng các tập dữ liệu rất lớn, vì vậy hãy nhớ điều đó khi nghĩ về hình dạng của đường cong.
Việc truy vấn và tạo ra thông tin được gia tăng từ RAG hỗ trợ tính cụ thể của lĩnh vực có sự đa dạng dài đuôi
Hiện tại có một cuộc di chuyển quan trọng trong ngành xung quanh việc Truy vấn được gia tăng từ việc tạo ra. RAG đơn giản hóa và cải thiện quá trình triển khai gen AI. Vấn đề với LLMs là chúng không nhất quán và đôi lúc không đáng tin cậy - chúng điên cuồng nhiều - và thường xuyên không đáng tin cậy, không nhất quán. Điều này chủ yếu là kết quả của phạm vi kiến thức và đầu vào dữ liệu rộng lớn và khả năng sáng tạo. Vì vậy, các tổ chức đang sử dụng RAG để giải quyết vấn đề này.
RAG là gì?
RAG là một khung AI cải thiện tính cụ thể của dữ liệu được sử dụng trong LLMs. RAG lấy các yêu cầu truy vấn từ người dùng và gắn liền kiến thức lĩnh vực cụ thể vào LLM bằng cách sử dụng cơ sở dữ liệu vector như Pinecone hoặc Milvus. Sau đó, đề xuất của người dùng gốc được bổ sung bằng một nguồn kiến thức độc quyền, thường được bổ sung bằng dữ liệu cụ thể cho ngành và sau đó gửi đến mô hình cơ bản, dẫn đến những phản hồi tốt hơn.
Phương pháp này chính xác hơn, giảm thiểu hiện tượng điên cuồng và cung cấp giá trị cụ thể của lĩnh vực mà các mô hình LLM tổng quát như ChatGPT, bản thân chúng nó, không thể cung cấp. RAG mang lại sự kiểm soát tốt hơn về dữ liệu được sử dụng bởi LLM khi hình thành một phản hồi.
Hãy xem một ví dụ về một RAG mà tôi đã quen thuộc: theCUBEai.
Kinh nghiệm của chúng tôi với theCUBEai là một ví dụ tốt về mô hình cụ thể cho lĩnh vực không phổ biến trên đuôi dài của Định luật Sức mạnh Gen AI. Chúng tôi đã cung cấp một bộ dữ liệu gồm khoảng 35.000 video từ theCUBE và dữ liệu khác mà chúng tôi có sẵn. Điều này cho phép khán giả của chúng tôi đặt câu hỏi cụ thể về các công ty, chiến lược và xu hướng ngành. Đó là một nền tảng tương tác được cung cấp bởi trí tuệ nhân tạo, hoạt động như một nhà phân tích ảo để tóm tắt nội dung video, trích xuất và chia sẻ thông tin quan trọng và hỗ trợ tìm kiếm có trợ giúp AI.
Ở ví dụ trên, chúng tôi hỏi theCUBE AI: "Chiến lược AI của Dell là gì?"
Nó trả lại một câu trả lời rất chính xác:
Phương pháp của Dell với AI dựa trên một khung việc AI gồm bốn phần: AI Trong, AI Trên, AI Cho và AI Cùng.
'AI Trong' tập trung vào việc nhúng AI vào các sản phẩm của Dell.
Khía cạnh 'AI Trên' liên quan đến việc xây dựng cơ sở hạ tầng cho khách hàng và đối tác có thể chạy các khối công việc AI và học máy của mình. Dự án Helix.
Chiều 'AI Cho' có hai mục tiêu. Đầu tiên, Dell áp dụng khả năng và công cụ AI để cải thiện quy trình nội bộ của họ và thứ hai, Dell chia sẻ kiến thức và các quy trình tốt nhất của họ với khách hàng để hỗ trợ hành trình AI của họ.
Sau đó, AI 'Cùng' tập trung vào việc tạo ra các liên kết hệ sinh thái.
Và AI cung cấp cho chúng tôi những video liên quan... mà, nhân tiện, đã được tạo bởi theCUBE AI.
Tác động đến công việc
Hiện có rất nhiều thông tin học từ đây. Một điều liên quan đến cuộc trò chuyện về việc AI lấy đi việc làm. Để chia sẻ một câu chuyện về mất việc, theCUBE AI đã loại bỏ ít nhất một công việc. Trước đây, chúng tôi đã có một con người cắt các đoạn video theo cách thủ công, nhưng bây giờ AI làm điều đó chỉ với một nút bấm. Chúng tôi có thể kiểm soát độ dài các đoạn video, ngữ cảnh và chất lượng, và nhiều hơn nữa. Bây giờ người mà AI đã thay thế không hề không hạnh phúc vì người đó giống như một điều khiển giao thông hàng không nhìn chăm chú vào video suốt cả ngày với đôi mắt mệt mỏi.
Vì vậy, việc loại bỏ công việc là một thanh gươm hai lưỡi. Tương tự như triển khai tự động hoá quá trình robot, một phần lớn của trí tuệ nhân tạo sẽ thay thế những nhiệm vụ tẻ nhạt. Lâu dài, nó có thể gây ảnh hưởng lớn đến việc làm, không nghi ngờ gì, nhưng chúng ta sẽ để nó đến một ngày khác.
Chất lượng dữ liệu quyết định giá trị của RAG
Chìa khóa của RAG cụ thể và LLM nói chung là chất lượng của dữ liệu.
Bởi vì chúng tôi có dữ liệu hiện tại về Dell trong tập tin, câu trả lời của theCUBE AI là hoàn toàn tốt. Nhưng dưới đây là một ví dụ không tốt hơn. Chúng tôi đã hỏi theCUBE AI "Ai là CEO của ServiceNow?"
Và nó trả lại cho chúng tôi tên John Donahoe, một cựu học viên của CUBE và cựu CEO. Và nó đề cập đến Frank Slootman, người là CEO trước đó. Dù chúng tôi đã nói khá nhiều về Bill McDermott, CEO mới, nhưng trí tuệ nhân tạo không thể nối mạch; dữ liệu trong tập tin chỉ đơn giản không đủ mới. Vì vậy, các kỹ sư đã nhận thông báo không tốt và một nhận xét, và họ sẽ huấn luyện hệ thống để tận dụng được các ngày tháng và đưa một lời cảnh báo vào câu trả lời rằng đây là từ một ngày cụ thể. Hoặc có thể tìm cách tìm kiếm dữ liệu khác trong tập tin và thực sự nối mạch. Chúng ta sẽ thấy...
Một lần nữa, điểm quan trọng là sự cập nhật và chất lượng của dữ liệu sẽ xác định tính liên quan và tính hữu ích của kết quả.
VUI LÒNG ĐĂNG KÝ THECUBE AI VÀ GIÚP CHÚNG TÔI NÂNG CAO TÍNH CÔNG CỤ CHO CỘNG ĐỒNG!
Khách hàng tập trung vào cải thiện chất lượng dữ liệu để tận dụng gen AI
Vì vậy, bạn sẽ không bất ngạc với dữ liệu khảo sát ETR dưới đây yêu cầu khách hàng tập trung vào vấn đề dữ liệu liên quan đến ưu tiên của gen AI.
Hãy quét qua các danh mục trên... cải thiện chất lượng dữ liệu, cải thiện kho dữ liệu và hồ sơ dữ liệu và lưu trữ dữ liệu, tích hợp thêm dữ liệu, cải thiện trình đọc dữ liệu, điều chỉnh quyền quản lý dữ liệu, cải thiện việc đánh dấu dữ liệu, quản lý siêu dữ liệu tốt hơn.
Một lần nữa, tất cả đều liên quan đến dữ liệu. Rất nhiều dữ liệu sẽ tồn tại trong đám mây. Có vô số dữ liệu trên hệ thống - có lẽ còn nhiều hơn là trên đám mây. Và càng ngày càng có nhiều dữ liệu ở các điểm biên. Cụm từ "tất cả đều liên quan đến dữ liệu" có nghĩa là đưa trí tuệ nhân tạo đến với dữ liệu, cải thiện chất lượng dữ liệu và đưa vào công cụ quản lý dữ liệu phù hợp.
Dữ liệu sẽ là yếu tố quyết định trong trí tuệ nhân tạo cho những người hành động.
Trí tuệ nhân tạo ở khắp mọi nơi...
Hãy kết thúc với một số suy nghĩ cuối cùng và kỳ vọng về việc áp dụng gen AI.
AI khắp mọi nơi: Nó đến từ trên xuống, từ dưới lên và từ giữa ra ngoài. Động lực tổ chức cho thấy AI đang được áp dụng. Ban điều hành đang thúc đẩy công nghệ và các bộ phận kinh doanh để đưa AI vào hệ thống nhằm cải thiện năng suất. Có rất nhiều "AI ẩn" nổi lên từ tầng đáy phi tập trung của các tổ chức và ban quản lý cấp trung muốn đưa AI vào các đơn vị kinh doanh của họ để cải thiện.
Quỹ đầu tư cho AI. Hầu hết tổ chức vẫn đang ở giai đoạn đánh giá, nhưng những tổ chức đang ở giai đoạn sản xuất đang cho thấy lợi tức đầu tư và "chia sẻ thành quả" trong trường hợp giá trị rõ ràng và nó tự trả tiền cho mình.
Mandate không được hỗ trợ về tài chính. Chia sẻ thành quả là một khái niệm quan trọng cho người thực hành vì ngân sách AI vẫn là tên lửa so với những sáng kiến khác - tức là các tổ chức đang cướp nguồn kinh phí từ các lĩnh vực khác để trả tiền cho AI.
Đẩy lùi những người dẫn đầu. Ngành công nghiệp đang vội vã tìm kiếm những sự thay thế khác cho Nvidia (AMD, Intel và các công ty tương tự) và các tùy chọn mã nguồn mở cho Arm. Nhưng hai cái này có lợi thế quan trọng trên thị trường (Nvidia trong GPU và Arm trong nhúng với AI đang nhúng ở biên)."
Tốt hơn hết là ở hàng đầu. Có thể là còn sớm, nhưng vị trí chiến lược quan trọng trong cuộc đua này. Những người tiên phong đang nhận được phản hồi đáng giá, nhanh chóng cải thiện chất lượng dữ liệu, tìm hiểu cách bảo vệ dữ liệu tốt nhất và tìm hiểu các mô hình kiếm lợi.
Thật mà nói là cái này cũng có hai anh em. Những người khởi xướng có thể nhận một số đòn roi. Nhưng đà này rất mạnh mẽ đến mức chúng ta muốn ở hàng đầu trong cuộc đua này hơn là bắt đầu từ cuối đám đứng nhận đấm đá.
Giữ liên lạc
Cảm ơn Alex Myerson và Ken Shifman về sản xuất, podcast và các quy trình phương tiện cho Breaking Analysis. Đặc biệt cảm ơn Kristen Martin và Cheryl Knight, những người giúp chúng tôi thông tin tới cộng đồng và lan toả thông điệp, cũng như Rob Hof, EiC của SiliconANGLE.
Hãy nhớ rằng chúng tôi xuất bản hàng tuần trên Wikibon và SiliconANGLE. Tất cả các tập đoàn này đều có sẵn là các podcast trên bất kỳ nền tảng nào bạn nghe.
Gửi email tới [email protected], nhắn tin cho @dvellante trên Twitter và bình luận trên bài viết LinkedIn của chúng tôi.
Hãy tham khảo Hướng dẫn ETR mà chúng tôi tạo ra, giải thích phương pháp chi tiêu cụ thể hơn. Lưu ý: ETR là một công ty riêng biệt khác với Wikibon và SiliconANGLE. Nếu bạn muốn trích dẫn hoặc tái xuất bất kỳ dữ liệu của công ty, hoặc hỏi về dịch vụ của nó, vui lòng liên hệ với ETR qua địa chỉ [email protected].
Dưới đây là phân tích video đầy đủ:
Tất cả các tuyên bố về các công ty hoặc chứng khoán chỉ là niềm tin, quan điểm và ý kiến của SiliconANGLE Media, Enterprise Technology Research, các khách mời trên theCUBE và các nhà viết khách. Những tuyên bố như vậy không phải là những khuyến nghị của những cá nhân này để mua, bán hoặc nắm giữ bất kỳ chứng khoán nào. Nội dung được trình bày không thành lập tư vấn đầu tư và không nên được sử dụng làm cơ sở cho bất kỳ quyết định đầu tư nào. Bạn, và chỉ có bạn chịu trách nhiệm về quyết định đầu tư của bạn.
Công khai: Nhiều công ty được trích dẫn trong Báo cáo phân tích Nổi bật là nhà tài trợ cho theCUBE hoặc là khách hàng của Wikibon. Không một công ty nào trong số các công ty này hoặc các công ty khác có bất kỳ quyền kiểm soát biên tập hoặc xem trước nội dung được xuất bản trong Báo cáo phân tích Nổi bật.
Hình ảnh: theCUBE Research (trước đây là Wikibon)
Phiếu bầu ủng hộ của bạn đối với chúng tôi rất quan trọng và nó giúp chúng tôi duy trì nội dung MIỄN PHÍ.
Một cú nhấp chuột bên dưới ủng hộ nhiệm vụ của chúng tôi cung cấp nội dung miễn phí, sâu sắc và có liên quan.
Tham gia cộng đồng của chúng tôi trên YouTube
Tham gia cộng đồng bao gồm hơn 15.000 chuyên gia #CubeAlumni, bao gồm cả CEO Amazon.com Andy Jassy, người sáng lập và CEO Dell Technologies Michael Dell, CEO Intel Pat Gelsinger và nhiều nhân vật và chuyên gia nổi tiếng khác.
“theCUBE là một đối tác quan trọng của ngành công nghiệp. Bạn thực sự là một phần của các sự kiện của chúng tôi và chúng tôi thật sự đánh giá cao sự xuất hiện của bạn và tôi biết mọi người cũng đánh giá cao nội dung mà bạn tạo ra” - Andy Jassy
XIN CẢM ƠN BẠN