Adatbányászat Blog

Az Adatbányász Blogon a dmlab szakértőinek írásait olvashatod a big data és data science területéről.

dmlab.hu - Big data és data science tanácsadás
"Ha örülsz, hogy fejedre nőttek az adatok."

Keress minket bátran:
- Nagy-Rácz István +36704595669
- Gáspár Csaba +36208234154
- info@dmlab.hu

Hírlevél

Iratkozz fel hírlevelünkre, hogy mindig naprakészen tudjunk tájékoztatni.
Feliratkozás
Leiratkozás

Címkék

10éves (1) 2007 (1) 2010 (23) 2011 (27) 2012 (13) 2013 (23) 2014 (5) 2015 (6) 2016 (10) 2017 (3) adaptív (1) adat- és médiainformatika (1) adatárusítás (1) adatbányászat (10) adatbányászati algoritmusok (1) adatbányászati alkalmazások (2) adatbányászati meetup (1) adatbányászati oktatás (1) adatbányászati technológiák (4) adatelemzés (1) adatelemzési platformok (1) adattárház (5) adattárház fórum (6) adattárolás (1) adattisztítás (1) adatvédelem (2) advise (2) aegon (1) aglitás (1) agy (2) ajánló (11) ajánlórendszerek (1) aktivitás felismerés (1) algoritmus (1) alkalmazás (3) állásajánlat (1) amazon ec2 (1) ambiens (1) ami (1) analitika (1) analytics (1) andego (3) apache (1) api (2) Arató Bence (3) bank (1) barabási (2) Barabási (2) beharangazó (1) beharangozó (18) bejelentés (2) belami (1) best practice (9) beszámoló (14) BI (3) Bi (1) bi (13) bi-trek (1) biconsulting (7) bigdata (21) Big Data (2) big data (5) biopen (1) biztosító (1) BI Akadémia (1) bi consulting (1) bi start (1) blog (5) bme (1) BME (14) bootcamp (1) brainstorming (1) bsp (1) budapest (1) business analytics (1) business analytics szakirány (1) churn (2) ci (1) címkefelhő (2) CIO (1) clementine (1) Clementine Consulting (1) cloud computing (2) cognos (1) credit scoring (1) crisp-dm (1) crm (2) csalásdetektálás (1) DataExpert (1) dataexplorer (1) datapest (1) data mining (1) data science (5) diplomamunka (1) dmla1o (1) dmlab (12) döntési fák (1) drill (1) e-commerce (1) előadás (21) előrejelzés (1) élő közvetítés (1) Enbrite.ly (1) energetika (1) esemény (2) esettanulmány (3) etikus (1) etl (2) évforduló (2) fejlesztés (2) felmérés (5) felsőoktatás (1) felület (1) felvásárlás (3) film (1) fizetés (1) forecasting (1) forgalomelőrejelzés (2) foursquare (1) fraud detection (1) freebase (1) gartner (2) gazdasagi informatikus (2) gépi tanulás (4) google (8) google analytics (1) graphlab (1) gravity (3) greenplum (1) gyakorlat (1) hadoop (10) hallgatók (2) hálózatelemzés (3) hálózatkutatás (2) hálózatok (3) hazai (2) hiba (4) hírlevél (2) hive (1) honlap (1) HR (1) HVG (1) i5 (1) ibm (6) ibm modeler (1) ibm spss (3) icdm (1) idc (2) idősor (1) idősorok (1) ieee (1) iir (1) infobright (1) információbróker (1) innováció (5) innovatívBI (1) innovativ bi (4) inspiráció (1) intelligencia (2) Internet Hungary (1) iqsymposium (19) iqsys (16) iroda (4) jelentkezés (1) jmp (2) kaggle (2) kampánymenedzsment (1) kapcsolati hálók (1) karrier (1) kdd (3) kdnuggets (2) képzés (4) kérdés (1) kérdőív (1) kerekasztal (1) keresés (1) kereső (1) keresztvalidáció (4) klaszterezés (2) knime (1) kockázati tőke (1) kollaboratív munka (1) kompetencia (1) konferencia (70) könyv (6) környezet (1) közlekedés (1) közösség (2) közösségi hálózatok (4) közvetítés (6) kritika (1) küldetés (1) kürt akadémia (1) kutatás (2) lemorzsolódás (1) licensz (1) live (1) logisztika (1) magyar telekom (2) mahout (1) mapreduce (1) marketplace (1) média (2) meetup (11) mellékspecializáció (1) mém (3) memóriacentrikus (1) menedzsment (3) metaadat (1) metodika (1) microsoft (1) mobil (5) mobil bi (4) modeler (2) modell (3) morgan stanley (1) motion chart (1) munkaerő (1) mysql (1) mytraffic (4) nemzetközi (5) nemzetközi összehasonlítás (1) netflix prize (1) networking (1) next big thing (1) nips (1) nosql (1) nyílt forráskód (4) nyomkövetés (1) offline áruházak (1) okostelefon (1) oktatás (22) olvasók (1) online áruházak (1) online kutatás (1) open source (19) open source bi (3) operatorfa (1) osbi (12) összehasonlítás (1) ötletek (2) pandas (2) paradoxon (1) pascal (1) pentaho (1) personal data mining (1) phd (2) philips (1) piac (3) pikk (1) pilot (1) PISA-felmérés (1) pmml (1) politika (2) powerpivot (1) prága (1) praktiker (1) prediktív analitika (2) prediktív analitka (1) prediktiv modellezés (5) prediktív modellezés (1) prezi (15) privacy (1) privacy preserving data mining (1) projekt (1) projektmenedzsment (4) publikáció (1) python (9) radoop (12) random forest (1) rapid-i (2) rapidanalytics (7) rapidminer (40) RapidMiner (2) rcomm (7) refine (1) Rexer Analytics (1) rsctc (1) R nyelv (7) saas (1) sap (1) SAS (20) sas enterprise miner (2) sas enterpris guide (1) sas entprise miner (1) sas forum (3) sas fórum (1) siker (3) simptech (1) sixtep (2) smarthabits (1) spike sorting (1) sportanalitika (1) SPSS (3) spss (13) spss clementine (3) spss hungary (5) spss modeler (6) ssd (1) starschema (2) startup (9) statisztika (1) survey (1) svm (1) szabad szoftver (1) szakmai (1) szavazó eljárások (2) szélenergia (1) szélerőmű (1) szervezetfejlesztés (1) szociális hálók (1) szoftver (5) szöveg (1) szövegbányászat (2) sztaki (2) tableau (1) talend (2) támogatás (1) tanulmány (1) tanulság (1) távolság (1) technológia (1) tedx (1) telekommunikáció (2) teradata (2) teszt (1) text mining (1) tmit (5) toborzás (1) tőzsdei előrejelzés (1) tracking (1) trendek (8) tudományos (1) tunedit (1) twitter (17) ügyfél (1) üzleti intelligencia (3) üzleti modell (3) üzleti reggeli (3) validáció (4) válogatás (1) válság (1) változás (1) vélemény (1) véleméy (1) verseny (20) vezetői képzés (1) videó (3) vizualizáció (5) web (4) web2 (2) webanalitika (3) webshop (1) weka (2) wikipedia (2) workshop (1) yahoo (2) Címkefelhő

TWitter a csapat tagjaitól

2014.08.06. 10:00 Ragány Csaba

RapidMiner tippek - A Filter és a Loop operátorok

Címkék: best practice rapidminer

Mind a klasszikus adatbányászati, mind pedig a tágabb teret lefedő data science feladatok megoldásainak egyik alapvető eleme a sorok szűrése, ami a RapidMiner-ben a Filter Examples operátorral valósítható meg. Kevésbé gyakori eljárás az adattáblák sorainak iteratív feldolgozása, amit hacsak lehet, kerülni kell pl. új attribútumok generálásával és ezek alapján a sorok szűrésével majd a keletkezett új és a régi adattáblák összekapcsolásával, hiszen pl. néhány millió sor iterációja igencsak költséges megoldást eredményezhet egy Generate Attributes, Filter Examples és Join operátorhármas alkalmazásához képest. Tegyük fel, hogy kisebb méretű adattáblával dolgozunk és a feladat sajátossága miatt elkerülhetetlen a RapidMiner valamely Loop operátorának használata. Ekkor a sorszintű iterációra alapvetően három lehetőségünk van: a Loop, a Loop Values és a Loop Examples operátorok (a többi speciális Loop operátor részletezésétől most eltekintünk). Kérdés, hogy mikor melyiket válasszuk illetve, hogy helyesen döntöttünk-e?

Sajnos a RapidMiner dokumentációja - amire még visszautalok a posztban - túl sokat nem árul el ezekről az operátorokról sem, kivéve ha kezdő adatbányász az ember. A többiek a tapasztalataikra hagyatkozhatnak, illetve az igazán expertek tanulmányozhatják a forráskódot is, hogy némi benyomásuk legyen a működési mechanizmust, az ismeretlen feature-öket (vagy éppen bugokat?) illetve a hatékonyságot illetően. Kérdés persze, hogy ez mennyiben feladata egy adatbányásznak, amire a rövid és gyors válasz, hogy semennyire, így ilyen részletekbe mi sem megyünk bele.

A dokumentáció alapján tehát a sima Loop operátor előnye a másik kettővel szemben az, hogy mi állíthatjuk be az iterációszámot illetve megadhatunk egy iterációs makrót valamint annak kezdő értékét is, ami adott esetben meglehetősen hasznos tud lenni. Komolyabb feladatoknál jellemzően a kezdőérték beállítása is egy makróval történik, aminek az értékét a folyamat során származtatjuk, így egészen jól automatizált processzeket készíthetünk. Egyébiránt makró használatára mindhárom Loop operátornál van lehetőség: a sima Loop operátor iterációs makrója a kezdőértéktől induló szám, ami minden lépésben eggyel nő, a Loop Examples operátornál a makró az aktuális sorszámot tartalmazza és mindig egytől indul, míg a Loop Values esetén az iterációs makró a kiválasztott attribútum következő értékét veszi fel.

Tegyük fel, hogy mi az adattáblánk összes (egyedi) sorát fel szeretnénk dolgozni, pl. mindenféle kritérium mentén elmenteni azokat egy adattárházba, így nem a normál Loop operátort választjuk. A Loop Examples operátor a sorszám alapján iterál végig, míg a Loop Values operátor sokkal hatékonyabbnak tűnik, ha az iteráció alapja egy konkrét - nominális - attribútum, és ebben vannak ismétlődő elemek (a Loop Values esetén meg kell adni egy nominális attribútumot, ami mentén történik az iteráció). Ekkor ugyanis pl. egy 100 sort tartalmazó adattábla esetén, melynek a kiválasztott attribútumában csak 3 lehetséges érték szerepelhet, a Loop Values csak háromszor fog végigiterálni, ami a Loop Examples 100-as futásához képest két nagyságrenddel gyorsabb futást ígér. Ez alapján gondolhatnánk is, hogy milyen nagyszerű dolgunk van, a lehetőségekhez mérten egy igazán hatékony processzt állítottunk össze, ami mehet is az éles rendszerbe. Aztán egyszer csak az igazság egy kellemetlenebb pillanatában felhív bennünket a megrendelő, hogy nem stimmelnek a rekordok az adattárházban.

Mi lehet a gond? Mit csináltunk rosszul? A kérdésekre álljon itt a hosszabb válasz. Az adattábla sorszintű iterációjának lényege, hogy minden lépésben általában csak egy sort szeretnénk feldolgozni, ahol a sorban lévő valamely értékektől függ az adott sor további sorsa: pl. legenerálunk hozzá egy újabb attribútumot és így beírjuk az egészet az adattárházba vagy eldobjuk a teljes sort. És itt jön a képbe a bevezetőben említett Filter Examples operátor, melynek ‘condition class’ paraméterében az ‘attribute_value_filter’ opciót választva elérhetővé válik a ‘parameter string’ beállítás, ahol megadható a kívánt szűrési feltétel. A Loop Values operátor esetén ez jellemzően az alábbi alakú: ‘<kiválasztott attribútum neve> = %{<loop values iterációs makrója>}’, vagyis minden iterációban a megadott attribútum mentén csak azokat a sorokat hagyjuk meg, melyek értéke azonos az iterációs makró aktuális értékével. Ebben a formában tehát a továbbiakban nem egy darab sorral dolgozunk, hanem akár többel, de ezek a kiválasztott attribútum mentén azonosak, így feltehetően a legenerált új attribútum értéke is azonos lesz ezeknél a soroknál. A Loop operátorok után pedig általában egy Append operátor szokott állni, ami összefésüli az egyes iterációk kimeneteit, ami így egy adattáblaként egy lépésben mehet be az adattárházba. Az Append operátornál különös figyelemmel kell lennünk a bemeneti adattáblák attribútumneveinek és -típusainak egyezésére, ami összetettebb processzek esetén nem magától értetődő.

A fenti feladatra a Loop Examples operátor esetén választhatjuk a hosszabb utat, amikor még a Loop előtt legenerálunk egy id mezőt a Generate ID operátorral, majd a Loop belsejében a Filter Examples operátornál az alábbi alakú szűrést használjuk: ‘id = %{<loop examples iterációs makrója>}’. Az egyszerűbb megoldás a Filter Example Range operátor használata, ahol az első- és utolsó sorhoz beállítjuk az iterációs makrót. A Loop Examples operátor esetén érdemes arra odafigyelni, hogy ne az ‘exa’ kimeneti portra kössük az iterációk eredményét, hanem az első ‘out’ portra, amit átadhatunk az Append operátor bemenetének. Ugyanis az ‘exa’ portot használva az első iterációt leszámítva minden iteráció az előző iteráció kimeneti adattábláját kapja bemenetül, ami jelen esetben a második iterációnál csak az első sorból fog állni, amiből pedig nem lehetséges meghagyni a második sort. Bizonyos esetekben viszont kifejezetten előnyös az ‘exa’ port használata.

Mi azonban a Loop Values operátort használtuk, tehát itt kell keresni a problémát: miért nem töltődtek be az adattárházba olyan sorok, melyeknek be kellett volna töltődniük? Például azért, mert a Filter Examples operátor ‘parameter string’ helyén megadott kifejezése automatikusan trimmelésre kerül, ami a RapidMiner egy nem dokumentált feature-e akar lenni, ami így valójában egy bug. A trimmelést feltehetően azért építették be a fejlesztők, mert nem feltételezték a professzionális felhasználást el szerették volna kerülni a felhasználók figyelmetlenségéből adódó azon diszfunkcionalitásokat, amikor a kifejezés végén véletlenül ott marad néhány láthatatlan whitespace karakter. Tehát a helyzet az, hogy a Loop Values operátor bemeneti adattáblájának kiválasztott - nominális - attribútuma a legtermészetesebb módon tartalmazhat pl. szóközre végződő értékeket, melyeket - nominális attribútumról lévén szó - az iterációs makró is tartalmazni fog a végződő szóközzel együtt, a ‘<kiválasztott attribútum neve> = %{<loop values iterációs makrója>}’ szűrési feltétel azonban mégsem fogja átengedni a kívánt sorokat, mert a kifejezés jobb oldala a beépített trimmelés áldozata lesz (természetesen előbb a makró értéke kerül behelyettesítésre, s csak utána következik a sorvégi szóköz levágása). Próbálkozhatunk persze a jobb oldalt idézőjelek vagy aposztrófok közé tenni, illetve a szóköz escape karakterrel történő direkt megadásával is, az eredmény nem változik.

Mi lehet tehát a megoldás? Egyrészt a processz készítése előtt szerezzük be a bemeneti attribútumok intervallumait és lehetséges értékeit, és a megoldás során használjunk minden eshetőséget tartalmazó mintafájlt, hogy adott esetben ne egy éles rendszer több hónapos működése után derüljenek ki az ilyen és ehhez hasonló hibák (ez természetesen minden egyéb fejlesztésre igaz, nemcsak RapidMiner-re). Másrészt a Loop Values helyett használjuk a Loop Examples operátort, ami ugyanolyan hatékony lesz, mint a Loop Values, ha előtte alkalmazunk egy Remove Duplicates operátort a kiválasztott attribútumra, vagyis a fenti példánál maradva így csak három sor kerül a Loop Examples bemenetére, a kimenetet pedig - az Append operátor után - a kiválasztott attribútum mentén összekapcsolhatjuk az eredeti adattáblával, hogy megkapjuk az eredeti sorszámú adattáblát. A Loop Examples operátorban pedig az említett Filter Example Range operátort használjuk. Ha szükségünk van a kiválasztott nominális attribútum aktuális értékére, akkor ez elérhető egy Extract Macro operátor segítségével a Filter Example Range után.

Ha pedig a Filter Examples operátort önmagában kell használnunk egy nominális attribútumra, amiben szintén lehetnek whitespace karakterre végződő értékek, akkor létrehozhatunk egy új segédattribútumot, mely pl. 1-es értéket vesz fel, ha a nominális attribútum értéke whitespace karakterre végződik illetve 0-át, ha nem. Ezt az alábbi, nem teljes kifejezéssel érhetjük el: ‘if(ends(<kiválasztott attribútum neve>, " "), 1, 0)’. A probléma az ‘ends()’ függvénnyel “mindössze” annyi, hogy nem kezeli a reguláris kifejezéseket, így nem adható meg második paraméterében a ‘\\s’, vagy még speciálisabb illetve teljesebb megoldásként a ‘\\s+’ kifejezés, vagyis nekünk kell manuálisan kibővíteni az ‘if()’ függvény ‘else’ ágát újabb 'if()' függvényekkel, hogy a szóköz mellett a többi whitespace karakter esetén is 1-es érték kerüljön az segédattribútumba.

Zárásként pedig megint csak annyit mondhatunk, hogy kíváncsian várjuk, melyik verziószámú RapidMiner-ben kerül javításra ez a bug (tippek érkezhetnek kommentben), illetve mikor jelennek meg az ilyen rejtett “feature-ök” a dokumentációban. A legjobb persze az volna, ha lenne lehetőség a Filter Examples operátorban a trimmelés opció deaktiválására.

A kép forrása.

Szólj hozzá!

A bejegyzés trackback címe:

http://adatbanyaszat.blog.hu/api/trackback/id/tr286574239

Kommentek:

A hozzászólások a vonatkozó jogszabályok  értelmében felhasználói tartalomnak minősülnek, értük a szolgáltatás technikai  üzemeltetője semmilyen felelősséget nem vállal, azokat nem ellenőrzi. Kifogás esetén forduljon a blog szerkesztőjéhez. Részletek a  Felhasználási feltételekben.

Nincsenek hozzászólások.