Մեքենայական ուսուցման մեջ պերցեպտրոնը վերահսկվող ուսուցման ալգորիթմ է երկուական դասակարգիչների համար: Այն նաև հաճախ կոչվում է պերցեպտրոն: Երկուական դասակարգիչը գործառույթ է, որը կարող է որոշել, թե արդյոք մուտքը, որը ներկայացված է թվերի վեկտորով, պատկանում է որոշակի դասի: Սա գծային դասակարգիչի տեսակ է, այսինքն՝ դասակարգման ալգորիթմ, որն իր կանխատեսումները անում է գծային կանխատեսիչ ֆունկցիայի հիման վրա, որը միավորում է կշիռների մի շարք հատկանիշի վեկտորի հետ:
Վերջին տարիներին արհեստական նեյրոնային ցանցերը ուշադրության են արժանացել խորը ուսուցման առաջընթացի շնորհիվ: Բայց ի՞նչ է արհեստական նեյրոնային ցանցը և ինչի՞ց է այն բաղկացած։
Հանդիպեք պերցեպտրոնին
Այս հոդվածում մենք արագ կանդրադառնանք արհեստական նեյրոնային ցանցերին ընդհանրապես, այնուհետև կնայենք մեկ նեյրոնին, և վերջապես (սա կոդավորման մաս է) մենք կվերցնենք արհեստականի ամենահիմնական տարբերակը։ նեյրոնը՝ պերցեպտրոնը և դասակարգել նրա կետերըինքնաթիռ.
Երբևէ մտածե՞լ եք, թե ինչու կան առաջադրանքներ, որոնք այդքան հեշտ են ցանկացած մարդու համար, բայց անհավանական դժվար համակարգիչների համար: Արհեստական նյարդային ցանցերը (կարճ՝ ANN) ոգեշնչվել են մարդու կենտրոնական նյարդային համակարգից: Ինչպես իրենց կենսաբանական գործընկերները, ANN-ները կառուցված են ազդանշանի մշակման պարզ տարրերի վրա, որոնք համակցված են մեծ ցանցի մեջ:
Նյարդային ցանցերը պետք է սովորեն
Ի տարբերություն ավանդական ալգորիթմների, նեյրոնային ցանցերը չեն կարող «ծրագրավորվել» կամ «կարգավորվել» այնպես, ինչպես նախատեսված է աշխատել: Ինչպես մարդու ուղեղը, նրանք պետք է սովորեն կատարել առաջադրանքը: Կոպիտ ասած՝ սովորելու երեք ռազմավարություն կա։
Կարելի է օգտագործել ամենահեշտ ձևը, եթե առկա է թեստ (բավականաչափ մեծ) հայտնի արդյունքներով: Այնուհետև ուսուցումն անցնում է այսպես. մշակել տվյալների մեկ փաթեթ: Արդյունքը համեմատեք հայտնի արդյունքի հետ: Կարգավորեք ցանցը և նորից փորձեք: Սա ուսուցման ռազմավարությունն է, որը մենք կօգտագործենք այստեղ:
Չվերահսկվող ուսուցում
Օգտակար է, եթե չկան հասանելի թեստային տվյալներ, և եթե հնարավոր է ծախսերի որոշակի գործառույթ ստանալ ցանկալի վարքագծից: Արժեքի ֆունկցիան ցույց է տալիս նեյրոնային ցանցին, թե որքան հեռու է այն թիրախից: Այնուհետև ցանցը կարող է արագորեն կարգավորել իր պարամետրերը՝ աշխատելով իրական տվյալների հետ:
Ուժեղացված ուսուցում
«Գազար և փայտիկ» մեթոդ. Կարող է օգտագործվել, եթե նեյրոնային ցանցը առաջացնում է շարունակական գործողություն: Ժամանակի ընթացքում ցանցը սովորում է նախընտրել ճիշտ գործողությունները և խուսափել սխալներից:
Լավ, հիմա մենք մի փոքր գիտենք դրա մասինարհեստական նեյրոնային ցանցերի բնույթը, բայց կոնկրետ ինչի՞ց են դրանք կազմված: Ի՞նչ կտեսնենք, եթե բացենք կափարիչը և նայենք ներսը։
Նեյրոնները նեյրոնային ցանցերի կառուցման բլոկներն են: Ցանկացած արհեստական նեյրոնային ցանցի հիմնական բաղադրիչը արհեստական նեյրոնն է։ Դրանք ոչ միայն իրենց կենսաբանական գործընկերների անուններով են կոչվում, այլև մոդելավորվել են մեր ուղեղի նեյրոնների վարքագծի հիման վրա:
Կենսաբանություն ընդդեմ տեխնոլոգիա
Ինչպես կենսաբանական նեյրոնն ունի դենդրիտներ՝ ազդանշաններ ստանալու համար, բջջային մարմին՝ դրանք մշակելու համար, և աքսոն՝ ազդանշաններ ուղարկելու այլ նեյրոններին, արհեստական նեյրոնն ունի բազմաթիվ մուտքային ալիքներ, մշակման փուլ և մեկ ելք, որը կարող է. ճյուղավորվում է շատ ուրիշների մոտ։ Արհեստական նեյրոններ։
Կարո՞ղ ենք որևէ օգտակար բան անել մեկ պերցեպտրոնով: Կա խնդիրների մի դաս, որոնք կարող է լուծել մեկ պերցեպտրոնը: Մուտքային վեկտորը դիտարկենք որպես կետային կոորդինատներ: n-տարր ունեցող վեկտորի համար այս կետը կապրի n-չափ տարածության մեջ: Կյանքը (և ստորև նշված կոդը) պարզեցնելու համար ենթադրենք, որ դա 2D է: Ինչպես թղթի կտոր։
Հաջորդ, պատկերացրեք, որ մենք այս հարթության վրա գծում ենք մի քանի պատահական կետեր և դրանք բաժանում ենք երկու խմբի՝ թղթի վրա ուղիղ գիծ գծելով: Այս գիծը կետերը բաժանում է երկու խմբի՝ մեկը գծից վերևում և մեկից ներքև։ Այնուհետև երկու բազմությունները կոչվում են գծային բաժանելի:
Մեկ պերցեպտրոնը, որքան էլ պարզ թվա, կարող է իմանալ, թե որտեղ է այս գիծը, և երբ ավարտի մարզումը, կարող է որոշել՝ տվյալ կետը այս գծից վերևում է, թե ցած:
Պատմությունգյուտեր
Այս մեթոդի ալգորիթմը հորինվել է 1957 թվականին Կոռնելի ավիացիոն լաբորատորիայում Ֆրենկ Ռոզենբլատի կողմից (հաճախ նրա անունով), որը ֆինանսավորվել է ԱՄՆ ռազմածովային հետազոտությունների գրասենյակի կողմից։ Պերցեպտրոնը նախատեսված էր որպես մեքենա, այլ ոչ թե ծրագիր, և չնայած դրա առաջին ներդրումը եղել է IBM 704-ի ծրագրային ապահովման մեջ, այն հետագայում կիրառվել է հատուկ կառուցված սարքաշարի վրա որպես «Mark 1 Perceptron»: Այս մեքենան նախատեսված էր պատկերների ճանաչման համար. այն ուներ 400 ֆոտոբջիջներից բաղկացած զանգված, որոնք պատահականորեն կապված էին նեյրոնների հետ: Կշիռները կոդավորված էին պոտենցիոմետրերով, իսկ մարզումների ընթացքում քաշի թարմացումը կատարվում էր էլեկտրական շարժիչներով։
1958 թվականին ԱՄՆ նավատորմի կողմից կազմակերպված մամուլի ասուլիսում Ռոզենբլատը հայտարարություններ արեց պերցեպտրոնի մասին, որը բուռն բանավեճ առաջացրեց երիտասարդ արհեստական ինտելեկտի համայնքի շրջանում. Հիմնվելով Ռոզենբլատի պնդումների վրա՝ New York Times-ը հաղորդում է, որ պերցեպտրոնը «սաղմնային էլեկտրոնային համակարգիչ է, որը ռազմածովային ուժերն ակնկալում են, որ կկարողանա քայլել, խոսել, տեսնել, գրել, վերարտադրվել և տեղյակ լինել իր գոյության մասին»:
Հետագա զարգացումներ
Չնայած պերցեպտրոնն ի սկզբանե խոստումնալից էր թվում, արագ ապացուցվեց, որ պերցեպտրոնները չեն կարող ուսուցանվել օրինաչափությունների շատ դասեր ճանաչելու համար: Սա երկար տարիներ հանգեցրեց լճացման պերցեպտրոնային նեյրոնային ցանցերով հետազոտական դաշտում, նախքան ճանաչվեց, որ երկու կամ ավելի շերտերով առաջընթաց նեյրոնային ցանցը (նաև կոչվում է.բազմաշերտ պերցեպտրոն) ուներ շատ ավելի մեծ մշակման հզորություն, քան միաշերտ պերցեպտրոնները (նաև կոչվում են միաշերտ պերցեպտրոններ): Միաշերտ պերցեպտրոնը կարող է ուսումնասիրել միայն գծային բաժանելի կառուցվածքները: 1969 թվականին Մարվին Մինսկի և Սեյմուր Փեյփերթի «Պերցեպտրոններ» հայտնի գիրքը ցույց տվեց, որ ցանցերի այս դասերը չեն կարող սովորել XOR ֆունկցիան։ Այնուամենայնիվ, սա չի վերաբերում ոչ գծային դասակարգման ֆունկցիաներին, որոնք կարող են օգտագործվել միաշերտ պերցեպտրոնում:
Նման գործառույթների օգտագործումը ընդլայնում է պերցեպտրոնի հնարավորությունները, ներառյալ XOR ֆունկցիայի իրականացումը: Հաճախ ենթադրվում է (սխալ), որ նրանք նաև ենթադրում էին, որ նմանատիպ արդյունք կպահպանվի բազմաշերտ պերցեպտրոնային ցանցի համար: Այնուամենայնիվ, դա այդպես չէ, քանի որ և՛ Մինսկին, և՛ Փեյփըրթն արդեն գիտեին, որ բազմաշերտ պերցեպտրոնները կարող են արտադրել XOR ֆունկցիա։ Երեք տարի անց Սթիվեն Գրոսբերգը հրապարակեց մի շարք փաստաթղթեր, որոնք ներկայացնում էին ցանցեր, որոնք կարող են մոդելավորել դիֆերենցիալ ֆունկցիաները, կոնտրաստի բարելավման գործառույթները և XOR ֆունկցիաները:
Աշխատությունները հրատարակվել են 1972 և 1973 թվականներին։ Այնուամենայնիվ, հաճախ անտեսված Minsky/Papert տեքստը առաջացրեց նեյրոնային ցանցի պերցեպտրոնի հետ կապված հետաքրքրության և հետազոտությունների ֆինանսավորման զգալի անկում: Անցավ ևս տասը տարի, մինչև 1980-ականներին վերականգնվեց նեյրոնային ցանցերի հետազոտությունը։
Հատկություններ
Պերցեպտրոնի միջուկի ալգորիթմը ներկայացվել է 1964 թվականին Յզերմանի և այլոց կողմից:Մորի և Ռոստամիզադե (2013), որոնք երկարացնում են նախորդ արդյունքները և տալիս նոր սահմաններ L1։
Պերցեպտրոնը կենսաբանական նեյրոնի պարզեցված մոդել է: Թեև նյարդային վարքագիծը լիովին հասկանալու համար հաճախ պահանջվում է կենսաբանական նյարդային մոդելների բարդությունը, հետազոտությունը ցույց է տալիս, որ պերցեպտոնի նման գծային մոդելը կարող է դրդել իրական նեյրոններում երևացող որոշ վարքագիծ:
Պերցեպտրոնը գծային դասակարգիչ է, ուստի այն երբեք չի հայտնվի այնպիսի վիճակի մեջ, որտեղ բոլոր մուտքային վեկտորները ճիշտ դասակարգված են, եթե D ուսուցման բազմությունը գծայինորեն բաժանելի չէ, այսինքն. եթե դրական օրինակները հնարավոր չէ առանձնացնել բացասական օրինակներից հիպերպլանով: Այս դեպքում ոչ մի «մոտավոր» լուծում քայլ առ քայլ չի անցնի ստանդարտ ուսուցման ալգորիթմի միջոցով, փոխարենը ուսուցումն ամբողջությամբ կձախողվի: Հետևաբար, եթե ուսուցման հավաքածուի գծային բաժանելիությունը նախօրոք հայտնի չէ, ապա պետք է օգտագործվի ստորև ներկայացված մարզման տարբերակներից մեկը:
գրպանի ալգորիթմ
Առաջնակի գրպանի ալգորիթմը լուծում է պերցեպտրոնի ուսուցման կայունության խնդիրը՝ մինչ այժմ գտնված լավագույն լուծումը պահելով «գրպանում»: Այնուհետև գրպանի ալգորիթմը լուծումը վերադարձնում է ոչ թե վերջին լուծումը, այլ գրպանում: Այն կարող է օգտագործվել նաև չբաժանելի տվյալների հավաքածուների համար, որտեղ նպատակն է գտնել պերցեպտրոն մի քանի սխալ դասակարգումներով: Այնուամենայնիվ, այս լուծումները ստոխաստիկ տեսք ունեն, և հետևաբար գրպանի ալգորիթմը չի համապատասխանում դրանց:աստիճանաբար վերապատրաստման ընթացքում, և երաշխավորված չէ, որ դրանք կհայտնաբերվեն որոշակի քանակությամբ վերապատրաստման քայլերի ընթացքում:
Maxover ալգորիթմ
Maxover-ի ալգորիթմը «առողջ» է այն առումով, որ այն կմիանա՝ անկախ տվյալների հավաքածուի գծային բաժանելիության իմացությունից: Գծային պառակտման դեպքում դա կլուծի ուսուցման խնդիրը, ըստ ցանկության, նույնիսկ օպտիմալ կայունությամբ (դասերի միջև առավելագույն մարժան): Անբաժանելի տվյալների հավաքածուների դեպքում լուծումը կվերադարձվի փոքր թվով սխալ դասակարգումներով: Բոլոր դեպքերում ալգորիթմը ուսումնառության ընթացքում աստիճանաբար մոտենում է լուծմանը՝ առանց նախկին վիճակները հիշելու և առանց պատահական ցատկերի։ Կոնվերգենցիան կայանում է գլոբալ օպտիմալության մեջ ընդհանուր տվյալների հավաքածուների համար և տեղական օպտիմալության մեջ՝ չբաժանվող տվյալների հավաքածուների համար:
Voted Perceptron
Քվեարկված պերցեպտրոնի ալգորիթմը մի տարբերակ է, որն օգտագործում է բազմաթիվ կշռված պերցեպտրոններ: Ալգորիթմը սկսում է նոր պերցեպտրոն ամեն անգամ, երբ օրինակը սխալ դասակարգվում է՝ սկզբնավորելով քաշի վեկտորը վերջին պերցեպտրոնի վերջնական կշիռներով: Յուրաքանչյուր պերցեպտրոնին կտրվի նաև տարբեր կշիռ, որը կհամապատասխանի նրան, թե քանի օրինակ են նրանք ճիշտ դասակարգում, նախքան մեկը սխալ դասակարգելը, և վերջում արդյունքը կլինի կշռված ձայն ամբողջ պերցեպտրոնի վրա:
:
Դիմում
Բաժանելի խնդիրների դեպքում պերցեպտրոնի ուսուցումը կարող է ուղղված լինել նաև դասերի միջև ամենամեծ տարանջատման սահմանը գտնելուն: Այսպես կոչվածՕպտիմալ կայունության պերցեպտրոնը կարող է որոշվել՝ օգտագործելով կրկնվող վերապատրաստման և օպտիմալացման սխեմաները, ինչպիսիք են Min-Over կամ AdaTron ալգորիթմը: AdaTron-ն օգտագործում է այն փաստը, որ համապատասխան քառակուսի օպտիմալացման խնդիրը ուռուցիկ է: Օպտիմալ կայունության պերցեպտրոնը միջուկի հնարքի հետ միասին հանդիսանում է աջակցության վեկտորի մեքենայի հայեցակարգային հիմքը:
Այլընտրանք
Ոչ գծային խնդիրներն առանց բազմաթիվ շերտերի լուծելու մեկ այլ միջոց է օգտագործել ավելի բարձր կարգի ցանցեր (sigma-pi բլոկ): Այս տեսակի ցանցում մուտքային վեկտորի յուրաքանչյուր տարր ընդլայնվում է բազմապատկված մուտքերի յուրաքանչյուր զույգ-զույգ համակցությամբ (երկրորդ կարգ): Սա կարող է տարածվել n-order ցանցի վրա: Պերցեպտրոնը շատ ճկուն բան է:
Սակայն, հիշեք, որ լավագույն դասակարգիչը պարտադիր չէ, որ ճշգրիտ դասակարգի վերապատրաստման բոլոր տվյալները: Իրոք, եթե մենք ունենայինք նախնական սահմանափակում, որ տվյալները գալիս են հավասար տարբերակ Գաուսի բաշխումներից, մուտքային տարածության գծային բաժանումը օպտիմալ է, և ոչ գծային լուծումը վերացվում է:
Գծային դասակարգման այլ ալգորիթմներ ներառում են Winnow, օժանդակ վեկտոր և լոգիստիկ ռեգրեսիա: Պերցեպտրոնը ալգորիթմների համընդհանուր հավաքածու է:
Վերահսկվող ուսուցման հիմնական շրջանակը
Վերահսկվող ուսուցումը մեքենայական ուսուցման խնդիր է, որը սովորում է մի ֆունկցիա, որը մուտքագրում է ելքային մուտքերըհիմնված I/O զույգերի օրինակների վրա: Նրանք եզրակացնում են մի առանձնահատկություն պիտակավորված վերապատրաստման տվյալներից, որը բաղկացած է մի շարք օրինակներից: Վերահսկվող ուսուցման մեջ յուրաքանչյուր օրինակ իրենից ներկայացնում է զույգ, որը բաղկացած է մուտքային օբյեկտից (սովորաբար վեկտորից) և ցանկալի ելքային արժեքից (նաև կոչվում է կառավարման ազդանշան):
Վերահսկվող ուսուցման ալգորիթմը վերլուծում է վերապատրաստման տվյալները և արտադրում գնահատված ֆունկցիա, որը կարող է օգտագործվել նոր օրինակներ ցուցադրելու համար: Օպտիմալ սցենարը թույլ կտա ալգորիթմին ճիշտ որոշել դասի պիտակները անտեսանելի օրինակների համար: Սա պահանջում է, որ ուսուցման ալգորիթմը ընդհանրացնի ուսուցման տվյալները անտեսանելի իրավիճակներին «ողջամիտ» ձևով:
Մարդու և կենդանիների հոգեբանության զուգահեռ առաջադրանքը հաճախ կոչվում է հայեցակարգային ուսուցում: