Week 7

From Control Systems Technology Group

Jump to: navigation, search

Terug: PRE_Groep2


Contents

Meeting maandag 13-10-2014

Suzanne heeft de inleiding afgemaakt. Dit moeten Iris, Meike en Floor dan nog eens goed doorlezen om te checken.

We moeten de discussie, conclusie en de wetenschappelijke invloed / ethiek nog schrijven. De discussie hebben we al voor een groot deel geschreven in google docs. Nog niet op wiki gezet omdat het in Google Docs makkelijker is om aan te passen.


Verslag wat we hebben is goed. Dit is het meest belangrijke van de wiki. De rest mag per week gestructureerd blijven maar daar moet dan minder aandacht op liggen.

Effecten zijn erg klein, die zou je toch wel hoger willen zien.

We moeten nog een keer naar de grafieken kijken want de schaal is van -2 tot 2. Leg goed uit waar de getallen voor staan (likert scale).

Geen vereisten, maar wel een goede stijl als je dit doet:

  • Je wilt foutenbalken (95% confidence interval) -- we kunnen excel gebruiken hiervoor omdat je toch maar 2 getallen hebben.
  • 1 decimaal achter de punt is wel goed
  1. Wat hebben we nou eigenlijk gemeten?
  2. Kunnen we de hypothese beantwoorden
  3. Geef een verklaring voor de resultaten (bedenk zelf)
    1. Als het er al is, dan is het een klein effect
    2. Mensen zouden alleen overtuigd raken door de informatie, niet door de emotie. Dus inhoudelijke informatie is belangrijk, hierdoor raken mensen eerder overtuigd. Dit kunnen we verstaven met het verslag van Alex.

Op basis van deze resultaten kunnen wij zeggen dat emotie dus niets toevoegt voor overtuiging.

De levendigheid verandert wel, dus mensen merken het verschil wel degelijk. Dit is eigenlijk wat we ook graag willen voor iemand met ALS

Stukje user-aspect toevoegen aan het verslag. Laat dit terugkomen in de discussie. USER-perspectief, ook wel een beetje SOCIETY-perspectief. Stel dat je het wil gaan verkopen? Wat zou je dan zeggen om het goed over te laten komen? Het is niet zo dat dit binnen een week toegepast kan gaan worden. Het heeft nog een heleboel stappen te gaan (kost nu nog super veel geld). Wat zijn deze stappen?

Met de kennis die jullie nu hebben opgedaan, kan dit ook met de Nao of Amigo robot? Zo ja hoe moet dat dan. Wat moet ik doen om dit toe te voegen aan mijn robot? Voldoen de requirements van deze robots om het toe te passen? Reflecteer met argumenten wat je er aan hebt.

  • Nao kan wel elk woord apart aanpassen. Je kunt ook .wav files inladen. Nao gebruikt Nuance. Ze zijn eigenlijk al verder met programmeren dan wat er nu op de robot zit.
  • Vraag aan René waar je kunt vinden hoe je het moet implementeren in Amigo.


Presentatie en beoordeling

Duurt 15 minuten. Ongeveer 10 minuten over het onderzoek en 5 minuten over het use-aspect.

Presenteer technische vernieuwing, maar vooral in combinatie met user perspectief.

Wat heb je beloofd in het begin, en wat heb je wel en niet kunnen halen?

Na de presentatie is er een kwartier om vragen te stellen. Dit telt ook mee met de beoordeling.


We worden beoordeeld op:

  • eerste 2 presentaties
  • eindpresentatie
  • discussie
  • wiki
  • proces
  • peer review

Peer review: Maak er een met z'n allen. En stuur naar Rene. Geef elkaar ook absolute punten op 1 tot 10.


TODO voor laatste week
  • Bronnen in inleiding in APA-style zetten
  • Do file opschonen misschien?
  • Do file op wiki


Grafieken aanpassen:

  • schalen (y-as) grafieken bekijken
  • getallen boven balken afronden op 1 (misschien 2) decimalen
  • error bars weergeven


Toepasbaarheid in robots:

  • Nao
  • Amigo


Discussie afmaken:

  • Per y-variabele goede redenen geven waarom dit eruit komt (problemen van ons onderzoek en/of gebaseerd op bronnen)
  • Conclusie voor animacy
  • Gerelateerd aan eerdere bronnen
  • Bron van 'woestijn study' gebruiken.


Wiki netter maken:

  • Alles per week ordenen
  • Zorgen dat alle belangrijke informatie in de samenvatting staat.

Meeting woensdag 15-10-2014

We hebben discussie over de interpretatie van de resultaten.

Moeten we vooral naar p waardes kijken, of zijn effect sizes belangrijker?

We kregen bepaalde uitkomsten, hoe kunnen we deze verklaren?

Onze conclusies hebben we geprobeerd zo goed mogelijk op te schrijven.


Meeting donderdag 16-10-2014

Floor heeft de wiki gestructureerd en alle weken gelijk gemaakt.

Meike en Floor hebben aan de grafieken gewerkt. Confidence intervals moesten eerst berekend worden, en daarna hebben we de grafieken in Excel gemaakt.

Iris heeft informatie gezocht over de TTS van Amigo en Nao. Meneer Lunenburg is nog gemaild, maar dit is waarschijnlijk te laat. Met de informatie van het internet hebben we het uiteindelijk netjes kunnen afronden.

Suzanne en Meike hebben verder geschreven aan puntjes die nog niet af waren voor de discussie.

Suzanne heeft gekeken naar de 'woestijn bron'. Deze bleek niet de informatie te bevatten waar we naar zochten.

Mail conact met Janno Lunenburg

We hebben mail contact gehad met Janno Lunenburg. Deze meneer zit aan de software kant van de Amigo. Hij heeft ons informatie gegeven over het TTS van Amigo.

Dit kregen we van hem:


De spraaksynthese van AMIGO is van Philips. Informatie hierover kun je vinden op: http://www.extra.research.philips.com/text2speech/ttsdev/index.html

Bij normaal gebruik zijn er vier dingen die je in kunt stellen (staat o.a. op voorgaande website onder ‘Features’):

  • Taal: AMIGO kan Nederlands en Engels
  • Stem: AMIGO heeft een aantal voorgeprogrammeerde stemmen: volgens mij man en vrouw in het Nederlands en Engels en een man in het Spaans en Frans. Overigens kun je een Nederlandse stem wel Engels laten praten (of andersom) maar dan krijg mogelijk dus een vreemd (of grappig) accent
  • Emotie: AMIGO gebruikt typisch neutraal, ‘excited’ of verdrietig
  • Personage (b.v. man, oude man, vrouw, jongen, meisje, robot, reus, dwerg en alien). Dit passen we echter nooit aan.


Overigens kun je ook pitch etc. volledig custom aanpassen. Dit is wat bijvoorbeeld gebeurt in het voorbeeld ‘Singing TTS’ op bovenstaande website. Dit staat echter precies gedefinieerd in een tekstbestand en is een feature die wij nooit zelf gebruikt hebben (we hebben alleen de demo ooit laten horen).


De spraak van AMIGO wordt allemaal realtime gegenereerd, er worden dus niet simpelweg geluidsbestanden op de robot gezet en afgespeeld. De zinnen zijn in principe voorgeprogrammeerd, maar hierin zit wel variatie. Zo heeft de robot in veel situaties een aantal mogelijke zinnen, waaruit er willekeurig een geselecteerd wordt. Ook moeten delen van de zin bijvoorbeeld ingevuld worden: als de robot zegt wat hij op een tafel ziet staan vult hij dat zelf aan (voorgeprogrammeerd is “I see {0}”, waar op {0} dus ingevuld wordt wat hij gezien heeft.

Tenslotte hebben we in het verleden ook gebruik gemaakt van Google TTS (online) en Festival/E-speak (een Linux tool). Die laatste kun je volgens mij ook aanpassen maar ik heb daar geen ervaring mee.

Personal tools