top of page

會員群組

查看群組和其中的文章。


群組摘要

這篇文章來自於建議的群組

1 次瀏覽次數

這篇文章來自於建議的群組

PC
16 天前 · 已在 會員服務區 中發佈

VS會員

影音相關專有字詞中英文對照表

影音相關專有字詞中英文對照表


A

 

AI(Artificial Intelligence) | 人工智慧

analog | 類比

animation | 動畫


35 次瀏覽次數

這篇文章來自於建議的群組

PC
2025年4月7日 · 已在 大型語言模型(LLM)落地部署筆記 中發佈

VS會員

技術分析:DeepL 與主流大型語言模型 (LLM) 比一比

這篇文章想跟大家深入探討一下知名的翻譯工具 DeepL 和目前市面上主流的大型語言模型(LLMs),像是大家熟知的 GPT、Gemini、Llama、Claude 等,它們在技術和應用上有哪些異同之處。

首先要明白,DeepL 主攻「機器翻譯」,而 LLMs 則是更「通用」的人工智慧,目標和設計從根本上就不同。讓我們來看看它們的主要區別:

1. 主要目標與設計哲學

  • DeepL:

  • 目標:追求最頂級、最自然的機器翻譯效果。

  • 設計:高度專注翻譯任務,架構和數據都為此服務。重點在理解語境、處理細節和慣用語。

35 次瀏覽次數

這篇文章來自於建議的群組

PC
2025年4月5日 · 已在 大型語言模型(LLM)落地部署筆記 中發佈

VS會員

RolmOCR 詳細技術報告

【技術分享】RolmOCR:基於 Qwen2.5-VL 的高效開源 OCR 新選擇!

RolmOCR 是由 Reducto 開發的一款開源光學字符識別(OCR)模型,基於 Qwen/Qwen2.5-VL-7B-Instruct 模型進行微調,專為高效處理多樣化文檔而設計。本報告提供其技術細節,包括模型架構、訓練數據、性能評估、應用場景與局限性,並與其他主流 OCR 解決方案進行比較,供技術人員與研究者參考。

如果你正在尋找 Tesseract 以外的開源 OCR 方案,或是對大型視覺語言模型在 OCR 上的應用感興趣,這份介紹或許能提供一些參考。


核心重點:RolmOCR 是什麼?

  • 開發者:Reducto

  • 基礎模型:Qwen/Qwen2.5-VL-7B-Instruct (阿里巴巴雲 Qwen 團隊)


88 次瀏覽次數

這篇文章來自於建議的群組

PC
2025年3月24日 · 已在 大型語言模型(LLM)落地部署筆記 中發佈

VS會員

Metal Performance Shaders(MPS)在機器學習中的應用與開源LLM微調之探討

摘要

Metal Performance Shaders(MPS)是蘋果公司開發的高效能框架,旨在利用MacOS與iOS設備的GPU加速計算任務。本報告探討MPS在機器學習中的應用,與MLX框架的協同作用,以及對開源大型語言模型(LLM)使用LoRA微調訓練的影響,並對照NVIDIA生態系(如CUDA)以凸顯差異。新增PyTorch的技術說明,闡述其與MPS的整合機制。透過具體範例,展示MPS如何在消費級Mac設備上實現高效訓練與推理,降低硬體門檻並促進開源生態發展。



一、Metal Performance Shaders(MPS)概述

1.1 MPS的定義與功能

MPS是蘋果Metal框架的一部分,提供預先優化的函數庫,讓開發者能直接存取GPU的並行計算能力,無需撰寫底層著色器程式碼。它針對蘋果硬體(如A系列與M系列晶片)進行深度調優,確保高效能與低功耗。主要模組包括:


16 次瀏覽次數

這篇文章來自於建議的群組

PC
2025年3月24日 · 已在 大型語言模型(LLM)落地部署筆記 中發佈

VS會員

技術分析報告:以多台 Mac Studio M3 Ultra(512GB)進行 EXO 叢集的 LLM 落地部署與微調可行性評估

引言

本報告評估利用多台 Mac Studio M3 Ultra(512GB)組成 EXO 叢集,進行大型語言模型(LLM)落地部署與微調,特別針對博物館等需要低成本落地部署並進行 LoRA 微調訓練的中小型企業。報告基於 2025 年 3 月 24 日的公開資料與技術趨勢,分析單機與叢集的性能差異,強調多機叢集的必要性,並根據實測資料探討 Thunderbolt 5 P2P 傳輸與 Thunderbolt Bridge 的性能。




技術背景


EXO 運作原理


22 次瀏覽次數

這篇文章來自於建議的群組

PC
2025年3月24日 · 已在 SMPTE 2110 中發佈

VS會員

TAA規範報告

日期:2025年3月24日


摘要


本報告旨在全面闡述美國《貿易協定法》(Trade Agreements Act, TAA)的規範要求,涵蓋其定義、目的、合規標準及適用範圍。TAA是一項規範美國政府採購產品原產地的聯邦法律,確保產品來自美國或指定的合規國家/地區。本報告詳細分析TAA的運作機制、合規國家清單,並針對相關地區及具體案例的合規性提供評估,旨在協助理解並應用此規範。



一、TAA規範概述


1.1 TAA的定義與目的


39 次瀏覽次數

這篇文章來自於建議的群組

PC
2025年3月24日 · 已在 大型語言模型(LLM)落地部署筆記 中發佈

VS會員

AMD GAIA 與 Mac Studio M3 Ultra 在落地部署大型語言模型推理中的比較分析

日期:2025 年 3 月 24 日


摘要:本文比較了 AMD GAIA(混合模式與通用模式)與 Mac Studio M3 Ultra(512GB 統一記憶體 + MLX 框架)在落地部署大型語言模型(LLM)的性能,聚焦推理速度、模型規模支援及應用場景。基準測試顯示,Mac Studio M3 Ultra 運行 671B 4-bit DeepSeek R1 模型的速度為 17-18 tokens/s,而 GAIA 受記憶體限制,混合模式上限為 13B,通用模式上限為 70B。研究表明,GAIA 在中小型模型上具靈活性,Mac Studio 則適合專業級超大模型應用。




1. 引言

隨著生成式人工智慧(AI)的發展,落地部署大型語言模型(LLM)的需求日益增長。AMD 於 2025 年 3 月推出的 GAIA 開源項目與 Apple 的 Mac Studio M3 Ultra 分別代表了不同的解決方案。本文全面比較兩者的硬體規格、軟體生態、推理速度及應用場景,並針對 671B 4-bit DeepSeek R1 模型的推理速度引用實際測量數據,確保所有資訊均有可靠來源。


29 次瀏覽次數

這篇文章來自於建議的群組

PC
2025年3月23日 · 已在 大型語言模型(LLM)落地部署筆記 中發佈

VS會員

GibberLink 與 ggwave 技術報告

1. 引言

GibberLink 是一個開源專案,由 Boris Starkov 和 Anton Pidkuiko 開發,於 2025 年 2 月在 ElevenLabs 全球黑客馬拉松中獲得最高獎項。其核心目標是提升 AI 代理之間的通訊效率,通過從人類語言切換到基於音波的資料傳輸協議,實現快速、準確的機器間互動。GibberLink 依賴 ggwave 技術,利用音波傳輸結構化資料,據稱效率提升達 80%。本報告詳細介紹 GibberLink 的運作機制、ggwave 的技術細節及其頻譜特性。


2. GibberLink 技術概述


2.1 背景

傳統 AI 通訊依賴語音合成和自然語言處理,適用於人類互動,但在 AI-AI 場景中效率低下。GibberLink 通過 ggwave 技術,讓 AI 代理在確認彼此身份後切換到音波傳輸模式,減少運算消耗並加速資料交換。


2.2 工作原理


8 次瀏覽次數

訂閱

02 7720 9899

©2019 by GETOP Systems Inc.
堅達資訊實業股份有限公司

bottom of page