Генеративните производи на услуги за вештачка интелигенција како што се ChatGPT и Midjourney го привлекуваат вниманието на пазарот. Наспроти оваа позадина, Корејската асоцијација за индустрија за вештачка интелигенција (KAIIA) го одржа „Самитот на Gen-AI 2023“ во COEX во Самсеонг-донг, Сеул. Дводневниот настан има за цел да го промовира и унапреди развојот на генеративната вештачка интелигенција (ВИ), која го проширува целиот пазар.
На првиот ден, почнувајќи со главниот говор на Џин Јунхе, раководител на бизнис одделот за спојување со вештачка интелигенција, присуствуваа големи технолошки компании како што се Microsoft, Google и AWS кои активно развиваат и служат ChatGPT, како и фаблесни индустрии кои развиваат полупроводници со вештачка интелигенција и направи релевантни презентации, вклучително и „Промени во NLP донесени од ChatGPT“ од извршниот директор на Персона AI, Јо Сеунг-јае, и „Градење чип со високи перформанси, енергетски ефикасен и скалабилен заклучоци за вештачка интелигенција за ChatGPT“ од извршниот директор на Furiosa AI Баек Јун-хо.
Џин Јунхе рече дека во 2023 година, годината на војната со вештачка интелигенција, приклучокот ChatGPT ќе влезе на пазарот како ново правило за игра за огромната конкуренција на јазични модели помеѓу Google и MS. Во овој случај, тој предвидува можности во полупроводници и акцелератори со вештачка интелигенција кои поддржуваат модели со вештачка интелигенција.
Furiosa AI е репрезентативна компанија за производство на вештачка интелигенција полупроводници во Кореја. Извршниот директор на Furiosa AI Баек, кој напорно работи на развивање на полупроводници за општа намена со вештачка интелигенција за да стигне до Nvidia, која го држи најголемиот дел од светскиот пазар на хиперскала ВИ, е убеден дека „побарувачката за чипови во полето на вештачката интелигенција ќе експлодира во иднина ”
Како што услугите за вештачка интелигенција стануваат посложени, тие неизбежно се соочуваат со зголемени инфраструктурни трошоци. Тековните A100 и H100 GPU производи на Nvidia имаат високи перформанси и компјутерска моќ потребни за пресметување со вештачка интелигенција, но поради зголемувањето на вкупните трошоци, како што се високата потрошувачка на енергија и трошоците за распоредување, дури и претпријатијата од ултра големи размери се претпазливи да се префрлат на производи од следната генерација. Односот на трошоците и придобивките изрази загриженост.
Во врска со ова, Баек ја предвиде насоката на технолошкиот развој, велејќи дека покрај сè повеќе компании кои ќе усвојат решенија за вештачка интелигенција, побарувачката на пазарот ќе биде максимизирање на ефикасноста и перформансите во специфичен систем, како што е „заштеда на енергија“.
Покрај тоа, тој нагласи дека точката на ширење на развојот на полупроводници со вештачка интелигенција во Кина е „употребливост“ и рече како да се реши поддршката за развојната околина и „програмабилноста“ ќе бидат клучните.
Nvidia го изгради CUDA за да го прикаже својот екосистем за поддршка, а осигурувањето дека развојната заедница поддржува репрезентативни рамки за длабоко учење, како што се TensorFlow и Pytoch, станува важна стратегија за преживување за продуктизација.
Време на објавување: мај-29-2023 година