мај 27, 2024

Beogradska Nedelja

Најновије вести из Србије на енглеском, најновије вести о Косову на енглеском, вести о српској економији, српске пословне вести, вести о српској политици, балканске регионалне вести у …

Мицрософт лансира Пхи-3, свој најмањи АИ модел до сада

Мицрософт лансира Пхи-3, свој најмањи АИ модел до сада

Мицрософт је лансирао следећу верзију свог лаганог модела са вештачком интелигенцијом, Пхи-3 Мини, први од три мини модела које компанија планира да објави.

Пхи-3 Мини мери 3,8 милијарди параметара и обучен је на мањем скупу података у поређењу са Пхи-3 Мини Велики језички модели као што је ГПТ-4. Сада је доступан на Азуре, Хуггинг Фаце и Оллама. Мицрософт планира да објави Пхи-3 Смалл (7Б параметара) и Пхи-3 Медиум (14Б параметара). Параметри показују број сложених инструкција које модел може да разуме.

Компанија је лансирала Пхи-2 у децембру, који се понашао слично већим моделима као што је Ллама 2. Мицрософт каже да Пхи-3 ради боље од претходне верзије и може да пружи одговоре блиске моделу 10 пута већем него што може.

каже Ериц Боид, корпоративни потпредседник Мицрософт Азуре АИ платформе Ивица Пхи-3 Мини има сличне могућности као ЛЛМ програми попут ГПТ-3.5 „само у мањем фактору форме“.

У поређењу са својим већим колегама, АИ модели су мали Често су јефтинији за трчање и бољи лични учинак Уређаји као што су телефони и лаптопови. Информације Раније ове године сам известио да Мицрософт гради тим посебно фокусиран на лагане АИ моделе. Заједно са Пхи-јем, компанија је такође изградила Орца-Матх, модел фокусиран на решавање математичких проблема.

Програмери су обучили Пхи-3 користећи „наставни план и програм“, каже Бојд. Били су инспирисани начином на који деца уче из прича за лаку ноћ, књига које садрже једноставније речи и структура реченица које говоре о већим темама.

„Нема довољно књига за децу, па смо узели листу од преко 3.000 речи и замолили доктора наука да креира 'дечје књиге' да подучава Фаи,” каже Бојд.

READ  НВИДИА ГеФорце РТКС 4080 постаје Невеггов бестселер, РТКС 4090 заузима треће место

Додао је да се Пхи-3 једноставно надограђује на оно што су претходне итерације научиле. Док се Пхи-1 фокусирао на програмирање, а Пхи-2 почео да учи да размишља, Пхи-3 је бољи у програмирању и расуђивању. Док Пхи-3 моделски пакет познаје нека општа знања, не може да победи ГПТ-4 или неки други ЛЛМ у смислу ширине – постоји велика разлика у врсти одговора које можете добити од потпуно онлајн обученог ЛЛМ у односу на мањи модел као Пхи -3.

Бојд каже да компаније често сматрају да мањи модели попут Пхи-3 боље раде за њихове прилагођене апликације, јер ће за многе компаније њихови интерни скупови података ионако бити мањи. Пошто ови модели користе мање рачунарске снаге, често су много приступачнији.