NVIDIA AI Workbench 助力全球企業(yè)加速采用自定義生成式 AI
發(fā)布時間:2023-08-11 10:47:50 熱度:1163
8/11/2023,光纖在線訊,洛杉磯 — SIGGRAPH — 太平洋時間 2023 年 8 月 8 日 — NVIDIA 今日發(fā)布 NVIDIA AI Workbench。這個統(tǒng)一、易于使用的工具套件使開發(fā)者能夠在 PC 或工作站上快速創(chuàng)建、測試和自定義預訓練的生成式 AI 模型,然后將這些模型擴展到幾乎任何數(shù)據(jù)中心、公有云或 NVIDIA DGX™ Cloud。
AI Workbench 降低了啟動企業(yè) AI 項目的復雜性。通過一個在本地系統(tǒng)上運行的簡化界面訪問,開發(fā)者可以使用自定義數(shù)據(jù)對來自 Hugging Face、GitHub 和 NVIDIA NGC™ 等流行資源庫的模型進行定制。然后,這些模型可以多個平臺之間輕松共享。
NVIDIA 企業(yè)計算副總裁 Manuvir Das 表示:“全球各地的企業(yè)都在競相尋找合適的基礎(chǔ)設施并構(gòu)建生成式 AI 模型和應用。NVIDIA AI Workbench 為跨組織團隊創(chuàng)建基于 AI 的應用提供了一條簡化的途徑,而這些應用正日益成為現(xiàn)代商業(yè)的關(guān)鍵?!?br>
AI 開發(fā)者的新時代
盡管目前已有數(shù)十萬計的預訓練模型可供使用,但要使用眾多開源工具對其進行定制,需要在多個在線資源庫中搜索適當?shù)目蚣?、工具和容器,并運用合適的技能為特定用例定制模型。
借助 NVIDIA AI Workbench,開發(fā)者只需點擊幾下就能自定義并運行生成式 AI。它允許開發(fā)者從開源資源庫和 NVIDIA AI 平臺中獲取所有必要的企業(yè)級模型、框架、軟件開發(fā)工具包和庫,并將其整合到一個統(tǒng)一的開發(fā)者工具套件中。
戴爾科技、慧與、惠普、Lambda、聯(lián)想、超微等領(lǐng)先的 AI 基礎(chǔ)設施提供商皆正在采用 AI Workbench,以增強其最新一代多 GPU 桌面工作站、高端移動工作站和虛擬工作站的性能。
擁有基于 Windows 或 Linux 的NVIDIA RTX™ PC 或工作站的開發(fā)者也可以在本地 RTX 系統(tǒng)上啟動、測試和微調(diào)企業(yè)級生成式 AI 項目,并可根據(jù)需求輕松訪問數(shù)據(jù)中心和云計算資源。
全新 NVIDIA AI Enterprise 4.0 軟件推進 AI 部署
為了進一步加快生成式 AI 的采用,NVIDIA 宣布推出最新版本的企業(yè)軟件平臺——NVIDIA AI Enterprise 4.0。它為企業(yè)提供采用生成式 AI 所需的工具,同時提供了可靠的生產(chǎn)部署所需的安全性和 API 穩(wěn)定性。
在 NVIDIA AI Enterprise 中,有著全新提供支持的軟件和工具,其有助于簡化生成式 AI 的部署,包括以下幾個:
NVIDIA NeMo™:一個用于構(gòu)建、自定義和部署大語言模型的云原生框架。通過 NeMo,NVIDIA AI Enterprise 可為大語言模型應用的創(chuàng)建和自定義提供端到端支持。
NVIDIA Triton™ 管理服務:可幫助實現(xiàn)生產(chǎn)部署的自動化和優(yōu)化,使企業(yè)能夠在 Kubernetes 中自動部署多個 NVIDIA Triton 推理服務器 實例,并通過模型編排來高效運行可擴展的 AI。
NVIDIA Base Command Manager Essentials 集群管理軟件:幫助企業(yè)在數(shù)據(jù)中心、多云和混合云環(huán)境中最大限度地提高 AI 服務器的性能和利用率。
NVIDIA AI Enterprise 軟件使用戶能夠在云端、數(shù)據(jù)中心和邊緣構(gòu)建并運行 NVIDIA AI 解決方案。這套軟件已被證實可在主流 NVIDIA 認證系統(tǒng)™、NVIDIA DGX 系統(tǒng)、所有主流云平臺以及最新發(fā)布的 NVIDIA RTX 工作站上運行。
領(lǐng)先的軟件公司 ServiceNow 和 Snowflake,以及基礎(chǔ)設施提供商戴爾科技(其提供戴爾生成式 AI 解決方案),最近宣布與 NVIDIA 合作,在其平臺上提供新的生成式 AI 解決方案和服務。NVIDIA AI Enterprise 4.0 與 NVIDIA NeMo 的集成為客戶構(gòu)建生產(chǎn)就緒型生成式 AI 奠定了基礎(chǔ)。
NVIDIA AI Enterprise 4.0 將在 Google Cloud、Microsoft Azure 等合作伙伴的應用市場上架,并通過 NVIDIA 的云合作伙伴 Oracle Cloud Infrastructure 提供。
此外,包括 Azure Machine Learning、ClearML、Domino Data Lab、Run:AI 和 Weights & Biases 在內(nèi)的 MLOps 提供商也將與 NVIDIA AI 平臺實現(xiàn)無縫集成,以簡化生產(chǎn)級生成式 AI 模型的開發(fā)。
廣泛的合作伙伴支持
“戴爾科技和 NVIDIA 全力致力于幫助企業(yè)構(gòu)建專用的 AI 模型,把握生成式 AI 帶來的巨大機遇。借助 NVIDIA AI Workbench,開發(fā)者可以充分利用戴爾完整的生成式 AI 解決方案組合,在個人電腦、工作站和數(shù)據(jù)中心基礎(chǔ)設施上自定義模型?!?br>
——戴爾科技集團商用客戶產(chǎn)品副總裁 Meghana Patwardhan
“大多數(shù)企業(yè)缺乏應對 AI 軟件和系統(tǒng)的高度復雜性所需的專業(yè)知識、預算和數(shù)據(jù)中心資源。我們期待通過 NVIDIA AI Workbench 在 HPE GreenLake 邊緣到云平臺上實現(xiàn)一鍵式訓練和部署,從而簡化生成式 AI 項目的創(chuàng)建?!?br>
——慧與 AI 首席產(chǎn)品官 Evan Sparks
“作為工作站市場的領(lǐng)導者,惠普致力于為要求嚴苛的數(shù)據(jù)科學和 AI 模型提供所需的性能和效率,為此我們與 NVIDIA 的合作由來已久?;萜照诓捎眯乱淮咝阅芟到y(tǒng),搭載 NVIDIA RTX Ada架構(gòu) GPU 和 NVIDIA AI Workbench,為我們的企業(yè)客戶帶來生成式 AI 的強大功能,幫助他們在云和本地之間移動 AI 工作負載?!?br>
——惠普高級計算解決方案高級副總裁 Jim Nottingham
“聯(lián)想和 NVIDIA 正共同努力幫助客戶克服部署的復雜性,更輕松地實施部署生成式 AI,以便他們?yōu)槭袌鎏峁└锩缘姆蘸彤a(chǎn)品。NVIDIA AI Workbench 和聯(lián)想 AI 就緒產(chǎn)品組合使開發(fā)者能夠充分利用其智能設備的強大功能,并在邊緣到云基礎(chǔ)設施中進行擴展。”
——聯(lián)想工作站與客戶端 AI 事業(yè)部副總裁兼總經(jīng)理 Rob Herman
“在長期合作過程中,VMware 與 NVIDIA 通過提供專為 AI 工作負載而優(yōu)化的端到端企業(yè)平臺,幫助每一家企業(yè)解鎖 AI 的力量。我們共同努力,使企業(yè)能夠更輕松地獲取和實現(xiàn)生成式 AI。通過 AI Workbench,NVIDIA 為開發(fā)者提供了一套強大的工具,幫助企業(yè)加速采用生成式AI。全新 NVIDIA AI Workbench 使開發(fā)團隊能夠?qū)?nbsp;AI 工作負載從桌面無縫遷移到生產(chǎn)環(huán)境中?!?br>
——VMware AI Labs 副總裁 Chris Wolf
關(guān)于 NVIDIA
自 1993 年成立以來,NVIDIA (NASDAQ: NVDA) 一直是加速計算領(lǐng)域的先驅(qū)。NVIDIA 1999 年發(fā)明的 GPU 驅(qū)動了 PC 游戲市場的增長,并重新定義了現(xiàn)代計算機圖形,開啟了現(xiàn)代 AI 時代,正在推動跨市場的工業(yè)數(shù)字化。NVIDIA 現(xiàn)在是一家全棧計算公司,其數(shù)據(jù)中心規(guī)模的解決方案正在重塑整個行業(yè)。更多信息,請訪問https://nvidianews.nvidia.com/ 。
AI Workbench 降低了啟動企業(yè) AI 項目的復雜性。通過一個在本地系統(tǒng)上運行的簡化界面訪問,開發(fā)者可以使用自定義數(shù)據(jù)對來自 Hugging Face、GitHub 和 NVIDIA NGC™ 等流行資源庫的模型進行定制。然后,這些模型可以多個平臺之間輕松共享。
NVIDIA 企業(yè)計算副總裁 Manuvir Das 表示:“全球各地的企業(yè)都在競相尋找合適的基礎(chǔ)設施并構(gòu)建生成式 AI 模型和應用。NVIDIA AI Workbench 為跨組織團隊創(chuàng)建基于 AI 的應用提供了一條簡化的途徑,而這些應用正日益成為現(xiàn)代商業(yè)的關(guān)鍵?!?br>

AI 開發(fā)者的新時代
盡管目前已有數(shù)十萬計的預訓練模型可供使用,但要使用眾多開源工具對其進行定制,需要在多個在線資源庫中搜索適當?shù)目蚣?、工具和容器,并運用合適的技能為特定用例定制模型。
借助 NVIDIA AI Workbench,開發(fā)者只需點擊幾下就能自定義并運行生成式 AI。它允許開發(fā)者從開源資源庫和 NVIDIA AI 平臺中獲取所有必要的企業(yè)級模型、框架、軟件開發(fā)工具包和庫,并將其整合到一個統(tǒng)一的開發(fā)者工具套件中。
戴爾科技、慧與、惠普、Lambda、聯(lián)想、超微等領(lǐng)先的 AI 基礎(chǔ)設施提供商皆正在采用 AI Workbench,以增強其最新一代多 GPU 桌面工作站、高端移動工作站和虛擬工作站的性能。
擁有基于 Windows 或 Linux 的NVIDIA RTX™ PC 或工作站的開發(fā)者也可以在本地 RTX 系統(tǒng)上啟動、測試和微調(diào)企業(yè)級生成式 AI 項目,并可根據(jù)需求輕松訪問數(shù)據(jù)中心和云計算資源。
全新 NVIDIA AI Enterprise 4.0 軟件推進 AI 部署
為了進一步加快生成式 AI 的采用,NVIDIA 宣布推出最新版本的企業(yè)軟件平臺——NVIDIA AI Enterprise 4.0。它為企業(yè)提供采用生成式 AI 所需的工具,同時提供了可靠的生產(chǎn)部署所需的安全性和 API 穩(wěn)定性。
在 NVIDIA AI Enterprise 中,有著全新提供支持的軟件和工具,其有助于簡化生成式 AI 的部署,包括以下幾個:
NVIDIA NeMo™:一個用于構(gòu)建、自定義和部署大語言模型的云原生框架。通過 NeMo,NVIDIA AI Enterprise 可為大語言模型應用的創(chuàng)建和自定義提供端到端支持。
NVIDIA Triton™ 管理服務:可幫助實現(xiàn)生產(chǎn)部署的自動化和優(yōu)化,使企業(yè)能夠在 Kubernetes 中自動部署多個 NVIDIA Triton 推理服務器 實例,并通過模型編排來高效運行可擴展的 AI。
NVIDIA Base Command Manager Essentials 集群管理軟件:幫助企業(yè)在數(shù)據(jù)中心、多云和混合云環(huán)境中最大限度地提高 AI 服務器的性能和利用率。
NVIDIA AI Enterprise 軟件使用戶能夠在云端、數(shù)據(jù)中心和邊緣構(gòu)建并運行 NVIDIA AI 解決方案。這套軟件已被證實可在主流 NVIDIA 認證系統(tǒng)™、NVIDIA DGX 系統(tǒng)、所有主流云平臺以及最新發(fā)布的 NVIDIA RTX 工作站上運行。
領(lǐng)先的軟件公司 ServiceNow 和 Snowflake,以及基礎(chǔ)設施提供商戴爾科技(其提供戴爾生成式 AI 解決方案),最近宣布與 NVIDIA 合作,在其平臺上提供新的生成式 AI 解決方案和服務。NVIDIA AI Enterprise 4.0 與 NVIDIA NeMo 的集成為客戶構(gòu)建生產(chǎn)就緒型生成式 AI 奠定了基礎(chǔ)。
NVIDIA AI Enterprise 4.0 將在 Google Cloud、Microsoft Azure 等合作伙伴的應用市場上架,并通過 NVIDIA 的云合作伙伴 Oracle Cloud Infrastructure 提供。
此外,包括 Azure Machine Learning、ClearML、Domino Data Lab、Run:AI 和 Weights & Biases 在內(nèi)的 MLOps 提供商也將與 NVIDIA AI 平臺實現(xiàn)無縫集成,以簡化生產(chǎn)級生成式 AI 模型的開發(fā)。
廣泛的合作伙伴支持
“戴爾科技和 NVIDIA 全力致力于幫助企業(yè)構(gòu)建專用的 AI 模型,把握生成式 AI 帶來的巨大機遇。借助 NVIDIA AI Workbench,開發(fā)者可以充分利用戴爾完整的生成式 AI 解決方案組合,在個人電腦、工作站和數(shù)據(jù)中心基礎(chǔ)設施上自定義模型?!?br>
——戴爾科技集團商用客戶產(chǎn)品副總裁 Meghana Patwardhan
“大多數(shù)企業(yè)缺乏應對 AI 軟件和系統(tǒng)的高度復雜性所需的專業(yè)知識、預算和數(shù)據(jù)中心資源。我們期待通過 NVIDIA AI Workbench 在 HPE GreenLake 邊緣到云平臺上實現(xiàn)一鍵式訓練和部署,從而簡化生成式 AI 項目的創(chuàng)建?!?br>
——慧與 AI 首席產(chǎn)品官 Evan Sparks
“作為工作站市場的領(lǐng)導者,惠普致力于為要求嚴苛的數(shù)據(jù)科學和 AI 模型提供所需的性能和效率,為此我們與 NVIDIA 的合作由來已久?;萜照诓捎眯乱淮咝阅芟到y(tǒng),搭載 NVIDIA RTX Ada架構(gòu) GPU 和 NVIDIA AI Workbench,為我們的企業(yè)客戶帶來生成式 AI 的強大功能,幫助他們在云和本地之間移動 AI 工作負載?!?br>
——惠普高級計算解決方案高級副總裁 Jim Nottingham
“聯(lián)想和 NVIDIA 正共同努力幫助客戶克服部署的復雜性,更輕松地實施部署生成式 AI,以便他們?yōu)槭袌鎏峁└锩缘姆蘸彤a(chǎn)品。NVIDIA AI Workbench 和聯(lián)想 AI 就緒產(chǎn)品組合使開發(fā)者能夠充分利用其智能設備的強大功能,并在邊緣到云基礎(chǔ)設施中進行擴展。”
——聯(lián)想工作站與客戶端 AI 事業(yè)部副總裁兼總經(jīng)理 Rob Herman
“在長期合作過程中,VMware 與 NVIDIA 通過提供專為 AI 工作負載而優(yōu)化的端到端企業(yè)平臺,幫助每一家企業(yè)解鎖 AI 的力量。我們共同努力,使企業(yè)能夠更輕松地獲取和實現(xiàn)生成式 AI。通過 AI Workbench,NVIDIA 為開發(fā)者提供了一套強大的工具,幫助企業(yè)加速采用生成式AI。全新 NVIDIA AI Workbench 使開發(fā)團隊能夠?qū)?nbsp;AI 工作負載從桌面無縫遷移到生產(chǎn)環(huán)境中?!?br>
——VMware AI Labs 副總裁 Chris Wolf
關(guān)于 NVIDIA
自 1993 年成立以來,NVIDIA (NASDAQ: NVDA) 一直是加速計算領(lǐng)域的先驅(qū)。NVIDIA 1999 年發(fā)明的 GPU 驅(qū)動了 PC 游戲市場的增長,并重新定義了現(xiàn)代計算機圖形,開啟了現(xiàn)代 AI 時代,正在推動跨市場的工業(yè)數(shù)字化。NVIDIA 現(xiàn)在是一家全棧計算公司,其數(shù)據(jù)中心規(guī)模的解決方案正在重塑整個行業(yè)。更多信息,請訪問https://nvidianews.nvidia.com/ 。


