امروز در سمینار اصلی GTC انویدیا، Jen-Hsun Huang، مسئول انویدیا گفت که این کمپانی در روزهای آینده مجموعهای از چارچوبهای نمونه زبان بزرگ (LLM) را که به نام Nvidia AI Foundations شناخته میشود عرضه می نماید.
Jen-Hsun درباره AI Foundations بسیار مطمئن است، او آن را" TSMC برای نوع های زبان سفارشی و بزرگ" می نامد. قطعا مقایسهای نیست که امروز انتظار شنیدن آن را داشتم، اما حدس میزنم که در کنار نظرات دلخراش هوانگ در مورد هوش ماشینی که شباهتی به آیفون داشته است، همخوانی دارد. این خدمات مانند Picasso و BioNeMo است که به ترتیب در خدمت رسانهها و صنایع پزشکی می باشند، و همچنین NeMo: چارچوبی با هدف کسبوکارهایی که به دنبال ادغام مدلهای زبان بزرگ در خلال کاری خود می باشند است.
NeMo" برای تولید کرد زبان سفارشی، نوع های تولید متن به متن" است که می تواند آنچه را که Nvidia آن را" نرم افزارهای کاربردی هوشمند می نامد، ارائه دهد.
با چیزی به نام P-Tuning، شرکتها توانایی آن را دارند مدلهای زبان سفارشی خود را آموزش دهند تا محتوای برند مناسبتری ایجاد کنند، ایمیلهایی با سبکهای نوشتاری شخصیسازی شده بنویسند، و اسناد مالی را خلاصه کنند تا ما انسانها از خیره شدن به اعداد و ارقام غافل نشویم. تمام روز، این برای من مانند یک کابوس به نظر می آید.
امیدواریم که این کار اندکی از وزن همه افراد کم کند و مدیر کل شما را از فریاد زدن بازدارد، به این دلیل که ظاهرا با سرعت بیشتر می توانید گرافیک دستگاه خود را تجربه کنید. مدلهای زبان NeMo از قبیل 8 میلیارد، 43 میلیارد، 530 میلیارد پارامتری است، با این مضمون که سطوح متفاوتی برای تایین با سطوح قدرت بسیار متفاوت وجود خواهد داشت.
برای ناحیه، GPT-3 اصلی Chat GPT از 175 میلیارد پارامتر استفاده می کرد، و هرچند اوپن ای آی به مردم نمی گوید GPT-4 در حال حاضر با چند پارامتر عمل می کند، AX Semantics تقریبا 1 تریلیون پردازش می تواند انجام دهد. لذا، نه، این کاملا یک رقیب مستقیم ChatGPT نمی باشد و امکان دارد عمق پارامترهای یکسانی نداشته باشد، اما به عنوان چارچوبی برای طراحی مدلهای زبان بزرگ، مطمئنا چهره هر صنعتی را که لمس میکند تغییر خواهد داد.