Kognitiv psykologi – Godkjenning av objekter

Lastet opp i kategorien Psykologi den 09.02.2013

Logikk i persepsjon:

  • Persepsjon må passe med all informasjon som kommer inn
  • Den enkleste forklaringen på et stimulus foretrekkes
  • Unngår tolkninger av stimulus som involverer tilfeldigheter (ser X som et kryss, ikke som to v-er tilfeldigvis plassert mot hverandre)

 

Features

Man gjenkjenner ting ved å gjenkjenne trekkene/the features ved den tingen (en kjærlighet består av trekkene rund kjærlighet og pinne) – man kjenner igjen ting selv i ulike stillinger og retninger osv., fordi man gjenkjenner the features

 

Tachistoscopic presentations – vise stimulus veldig kort tid; studier med dette har fortalt oss litt om hva som påvirker gjenkjennelse

  • Gjenkjenner ting som er kjente
  • Nylig ble sett (repetition priming)
  • Ord gjenkjennes lettere enn isolerte bokstaver (word-superiority effect)
  • Gjelder bare ord som er ”well-formed” gjenkjennes lettere (MOSI lettere enn HGPB), kan uttales lettere
  • Dette gjør at vi gjør lett feil, TPUM leses lett som TRUM eller DRUM (over-regularization errors)

 

Feature Nets

  • Modell som ser på gjenkjenning av ord som et nettverk av detektorer organisert i flere lag, hvor det nederste laget gjenkjenner features, mens høyere lag gjenkjenner mer komplekse objekter
  • Detektorene har en activation level, og input må være så sterk at det når detektorens response threshold, for da fyrer den av
  • Noen detektorer fyres lettere av enn andre; recency og frequency påvirker en detektors sjanse for å fyre av
  • Forklarer well-formedness ved å legge til et lag ekstra i ”nettet” som gjenkjenner bokstavpar (gjenkjenner HICE pga. kjennskap til HILL og MICE; ikke det samme for HKFD)
  • Nettverkets kunnskap er ikke locallt represented noe sted, men det er distrupted knowledge lokalisert over hele nettverket
  • Selv om man kan gjøre feil ved å bruke denne modellen, er dette prisen man må betale, ellers hadde vi lest veldig sakte à effektivitet over nøyaktighet

 

McClelland og Rumelhart modellen

  • Også en Feature Net modell, men her foreslås det at det både finnes eksiterende og inhiberende detektorer. Blir man vist ordet TRIP eksiterer dette T-detektor og inhiberer G-detektor. Disse påvirkningene går begge veier, ikke bare fra de lavere nivåene til de høyere

 

Hummel og Biederman

  • Foreslår en Feature Net-modell for objekter – recognition by components
  • Alt vi ser består av geons (grunnleggende byggesteiner som kuber, sylindre osv.)

Nivåer:

  • feature detektorer – kurver, linjer osv.
  • geon detektorer
  • detektorer for kombinasjoner av geons
  • detektorer for hele objektet

Denne modellen er viewpoint-independent – hevder vi kan kjenner igjen objekter uavhengig av synsvinkel

 

Recognition via Multiple Views

  • Blant annet Michael Tarr har foreslått at vi har lagret ulike synsvinkler av ulike objekter i minnet (katt fra siden, katt ovenfra, katt bakfra osv.), men det er begrenset hvor mange vinkler vi kan lagre.
  • Det tar lengre tid å gjenkjenne noe fra en ukjent vinkel, og modellen hevder gjenkjenning er viewpoint-dependent.
  • Støtte for teorien: noen nevroner fyrer bare hvis objekt i en spesiell vinkel er i syne.

à debatt mellom leirene om hvorvidt prosessen er avhengig av synsvinkel eller ikke

 

Det viser seg at gjenkjenning av ansikter osv. (ting som er veldig like, og som man har mye kunnskap om) bruker et annet system, configuration system. Mer sensitiv til mønster av større skala

Gjenkjenning er også i stor grad påvirket av kontekst og concept-driven/top-down processing – gjenkjenning blir påvirket av vår kunnskap (om andre ting enn bokstaver, geons osv.), våre erfaringer og våre forventininger.

En interaksjonsmodell må til for å kunne forstå gjenkjenning fullt og helt.