Google-ը կօգնի գլուխ հանել Արհեստական ինտելեկտից՝ առանց ծրագրավորման գիտելիքներ ունենալու

Google-ը կօգնի գլուխ հանել Արհեստական ինտելեկտից՝ առանց ծրագրավորման գիտելիքներ ունենալու

Google ընկերությունը կներկայացնի Cloud AutoML Vision ծառայության alpha-տարբերակը, որը թույլ է տալիս կազմակերպություններին ստեղծել մեքենայական ուսուցման սեփական մոդելը՝ չգրելով անգամ մեկ տող կոդ: Ծրագրավորման հմտությունների չտիրապետողները կարող են կառավարել այդ ամբողջ ընթացքը՝ տվյալների ներմուծումից մինչև մոդելի ուսուցման ավարտ: Սա կարող են անել պարզ գրաֆիկական ինտերֆեյսով, պարզապես բլոկներ տեղափոխելով:

Բոլոր բարդ ու «ծանր» գործողությունները և տվյալների մշակումը Goolge-ը վերցնում է իր վրա: Այս ծրագիրը թույլ կտա բիզնեսի ղեկավարներին խնայել Արհեստական ինտելեկտի ոլորտի մասնագետների թանկարժեք ծառայություններից օգտվելու ծախսերը:

«Արհեստական ինտելեկտի (AI) և մեքենայական ուսուցման (ML ոլորտներ մուտք գործելը դեռևս մեծ խոչընդոտներ ունի, որոնք պահանջում են մեծ ռեսուրսներ, որոնք կարող են իրենց թույլ տալ միայն հաշված ընկերություններ,- ասել է Google-ի գլխավոր գիտական հետազոտող Ֆեի-ֆեի Լին,- չնայած նրան, որ AI-ը առաջարկում է անհաշվելի առավելություններ բիզնեսին, այսօր անհատական մոդել ստեղծելու համար պահանջվում է հազվատեպ փորձագիտական գիտելիք և հսկայածավալ ռեսուրսներ»:

Սկզբնական շրջանում հասանելի կլինի միայն մեկ ծառայություն՝ պատկերները ճանաչելու AutoML Vision-ը: Հատուկ գիտելիքներ չունենալով՝ գործնականում յուրաքանյուրը կարող է AutoML Vision-ում ներբեռնել իր նկարները և նշել դրանք թեգերով, որից հետո Google-ի ալգորիթմը ավտոմատ կերպով կստեղծի մեքենայական ուսուցման անահատական մոդելը՝ կանկրետ պահանջներով օպտիմիզացված:

Ավելի ուշ հասանելի կդառնան այս նախագծի այլ բաղադրիչ ծառայությունները, որոնք պատասխանատու կլինեն խոսքի ճանաչման, մեդիա կոնտենտի վերլուծության, թարգմանության որակի համար և այդպես շարունակ:

Նոր ծառայությունն արդեն փորձարկել են Disney-ում: Google-ում նշել են, որ այս ընկերությունն AutoML Vision-ի միջոցով բարելավել է իր օնլայն-խանութի որոնողական համակարգը:

AutoML Vision-ին հասանելիություն ստանալու համար հարկավոր է ընկերությունը դիմում ուղղի Google-ին: Ծառայությունից օգտվելու արժեքի մասին դեռևս չի հաղորդվում: