Hyppää sisältöön
    • FI
    • ENG
  • FI
  • /
  • EN
OuluREPO – Oulun yliopiston julkaisuarkisto / University of Oulu repository
Näytä viite 
  •   OuluREPO etusivu
  • Oulun yliopisto
  • Avoin saatavuus
  • Näytä viite
  •   OuluREPO etusivu
  • Oulun yliopisto
  • Avoin saatavuus
  • Näytä viite
JavaScript is disabled for your browser. Some features of this site may not work without it.

Photorealistic facial synthesis in the dimensional affect space

Kollias, Dimitrios; Cheng, Shiyang; Pantic, Maja; Zafeiriou, Stefanos (2019-01-29)

 
Avaa tiedosto
nbnfi-fe2019100330981.pdf (6.392Mt)
nbnfi-fe2019100330981_meta.xml (33.38Kt)
nbnfi-fe2019100330981_solr.xml (33.56Kt)
Lataukset: 

URL:
https://doi.org/10.1007/978-3-030-11012-3_36

Kollias, Dimitrios
Cheng, Shiyang
Pantic, Maja
Zafeiriou, Stefanos
Springer Nature
29.01.2019

Kollias D., Cheng S., Pantic M., Zafeiriou S. (2019) Photorealistic Facial Synthesis in the Dimensional Affect Space. In: Leal-Taixé L., Roth S. (eds) Computer Vision – ECCV 2018 Workshops. ECCV 2018. Lecture Notes in Computer Science, vol 11130. Springer, Cham, https://doi.org/10.1007/978-3-030-11012-3_36

https://rightsstatements.org/vocab/InC/1.0/
© Springer Nature Switzerland AG 2019. This is a post-peer-review, pre-copyedit version of an article published in Lecture Notes in Computer Science. The final authenticated version is available online at: https://doi.org/10.1007/978-3-030-11012-3_36.
https://rightsstatements.org/vocab/InC/1.0/
doi:https://doi.org/10.1007/978-3-030-11012-3_36
Näytä kaikki kuvailutiedot
Julkaisun pysyvä osoite on
https://urn.fi/URN:NBN:fi-fe2019100330981
Tiivistelmä

Abstract

This paper presents a novel approach for synthesizing facial affect, which is based on our annotating 600,000 frames of the 4DFAB database in terms of valence and arousal. The input of this approach is a pair of these emotional state descriptors and a neutral 2D image of a person to whom the corresponding affect will be synthesized. Given this target pair, a set of 3D facial meshes is selected, which is used to build a blendshape model and generate the new facial affect. To synthesize the affect on the 2D neutral image, 3DMM fitting is performed and the reconstructed face is deformed to generate the target facial expressions. Last, the new face is rendered into the original image. Both qualitative and quantitative experimental studies illustrate the generation of realistic images, when the neutral image is sampled from a variety of well known databases, such as the Aff-Wild, AFEW, Multi-PIE, AFEW-VA, BU-3DFE, Bosphorus.

Kokoelmat
  • Avoin saatavuus [37688]
oulurepo@oulu.fiOulun yliopiston kirjastoOuluCRISLaturiMuuntaja
SaavutettavuusselosteTietosuojailmoitusYlläpidon kirjautuminen
 

Selaa kokoelmaa

NimekkeetTekijätJulkaisuajatAsiasanatUusimmatSivukartta

Omat tiedot

Kirjaudu sisäänRekisteröidy
oulurepo@oulu.fiOulun yliopiston kirjastoOuluCRISLaturiMuuntaja
SaavutettavuusselosteTietosuojailmoitusYlläpidon kirjautuminen