<?xml version="1.0" encoding="UTF-8" ?>
<oai_dc:dc schemaLocation="http://www.openarchives.org/OAI/2.0/oai_dc/ http://www.openarchives.org/OAI/2.0/oai_dc.xsd">
<dc:title>3D Motion Data aided Human Action Recognition and Pose Estimation</dc:title>
<dc:creator>Gong, Wenjuan</dc:creator>
<dc:contributor>true</dc:contributor>
<dc:contributor>Gonzàlez i Sabaté, Jordi</dc:contributor>
<dc:contributor>Roca i Marvà, Francesc Xavier</dc:contributor>
<dc:contributor>true</dc:contributor>
<dc:contributor>Universitat Autònoma de Barcelona. Departament d'Arquitectura de Computadors i Sistemes Operatius</dc:contributor>
<dc:subject>Computer vision</dc:subject>
<dc:subject>Action recognition</dc:subject>
<dc:subject>Pose estination</dc:subject>
<dc:subject>Tecnologies</dc:subject>
<dc:subject>519.1</dc:subject>
<dc:description>En aquest treball s’explora el reconeixement d’accions humanes i l'estimació de la seva postura en seqüències d'imatges. A diferència de les tècniques tradicionals d’aprenentatge a partir d’imatges 2D o vídeo amb la sortida anotada, en aquesta Tesi abordem aquest objectiu amb la informació de moviment 3D capturat, que ens ajudar a tancar el llaç entre les característiques 2D de la imatge i les interpretacions sobre el moviment humà.</dc:description>
<dc:description>En este trabajo se exploran el reconocimiento de acciones humanas y la estimación de su postura en secuencias de imágenes. A diferencia de las técnicas tradicionales de aprendizaje a partir de imágenes 2D o vídeo con la salida anotada, en esta Tesis abordamos este objetivo con la información de movimiento 3D capturado, que nos ayudar a cerrar el lazo entre las caracteríssticas 2D de la imagen y las interpretaciones sobre el movimiento humano.</dc:description>
<dc:description>In this work, we explore human action recognition and pose estimation problems. Different from traditional works of learning from 2D images or video sequences and their annotated output, we seek to solve the problems with additional 3D motion capture information, which helps to fill the gap between 2D image features and human interpretations.</dc:description>
<dc:date>2013-06-10T08:57:45Z</dc:date>
<dc:date>2013-06-10T08:57:45Z</dc:date>
<dc:date>2013-05-10</dc:date>
<dc:type>info:eu-repo/semantics/doctoralThesis</dc:type>
<dc:type>info:eu-repo/semantics/publishedVersion</dc:type>
<dc:identifier>9788449036767</dc:identifier>
<dc:identifier>http://hdl.handle.net/10803/116189</dc:identifier>
<dc:identifier>B-15944-2013</dc:identifier>
<dc:language>eng</dc:language>
<dc:rights>ADVERTIMENT. L'accés als continguts d'aquesta tesi doctoral i la seva utilització ha de respectar els drets de la persona autora. Pot ser utilitzada per a consulta o estudi personal, així com en activitats o materials d'investigació i docència en els termes establerts a l'art. 32 del Text Refós de la Llei de Propietat Intel·lectual (RDL 1/1996). Per altres utilitzacions es requereix l'autorització prèvia i expressa de la persona autora. En qualsevol cas, en la utilització dels seus continguts caldrà indicar de forma clara el nom i cognoms de la persona autora i el títol de la tesi doctoral. No s'autoritza la seva reproducció o altres formes d'explotació efectuades amb finalitats de lucre ni la seva comunicació pública des d'un lloc aliè al servei TDX. Tampoc s'autoritza la presentació del seu contingut en una finestra o marc aliè a TDX (framing). Aquesta reserva de drets afecta tant als continguts de la tesi com als seus resums i índexs.</dc:rights>
<dc:rights>info:eu-repo/semantics/openAccess</dc:rights>
<dc:format>103 p.</dc:format>
<dc:format>application/pdf</dc:format>
<dc:format>application/pdf</dc:format>
<dc:publisher>Universitat Autònoma de Barcelona</dc:publisher>
<dc:source>TDX (Tesis Doctorals en Xarxa)</dc:source>
</oai_dc:dc>
<?xml version="1.0" encoding="UTF-8" ?>
<dim:dim schemaLocation="http://www.dspace.org/xmlns/dspace/dim http://www.dspace.org/schema/dim.xsd">
<dim:field element="contributor" mdschema="dc">Universitat Autònoma de Barcelona. Departament d'Arquitectura de Computadors i Sistemes Operatius</dim:field>
<dim:field element="contributor" mdschema="dc" qualifier="author">Gong, Wenjuan</dim:field>
<dim:field element="contributor" mdschema="dc" qualifier="authoremailshow">true</dim:field>
<dim:field element="contributor" mdschema="dc" qualifier="director">Gonzàlez i Sabaté, Jordi</dim:field>
<dim:field element="contributor" mdschema="dc" qualifier="codirector">Roca i Marvà, Francesc Xavier</dim:field>
<dim:field element="contributor" mdschema="dc" qualifier="authorsendemail">true</dim:field>
<dim:field element="date" mdschema="dc" qualifier="accessioned">2013-06-10T08:57:45Z</dim:field>
<dim:field element="date" mdschema="dc" qualifier="available">2013-06-10T08:57:45Z</dim:field>
<dim:field element="date" mdschema="dc" qualifier="issued">2013-05-10</dim:field>
<dim:field element="identifier" mdschema="dc" qualifier="isbn">9788449036767</dim:field>
<dim:field element="identifier" mdschema="dc" qualifier="uri">http://hdl.handle.net/10803/116189</dim:field>
<dim:field element="identifier" mdschema="dc" qualifier="dl">B-15944-2013</dim:field>
<dim:field element="description" lang="cat" mdschema="dc" qualifier="abstract">En aquest treball s’explora el reconeixement d’accions humanes i l'estimació de la seva postura en seqüències d'imatges. A diferència de les tècniques tradicionals d’aprenentatge a partir d’imatges 2D o vídeo amb la sortida anotada, en aquesta Tesi abordem aquest objectiu amb la informació de moviment 3D capturat, que ens ajudar a tancar el llaç entre les característiques 2D de la imatge i les interpretacions sobre el moviment humà.</dim:field>
<dim:field element="description" lang="spa" mdschema="dc" qualifier="abstract">En este trabajo se exploran el reconocimiento de acciones humanas y la estimación de su postura en secuencias de imágenes. A diferencia de las técnicas tradicionales de aprendizaje a partir de imágenes 2D o vídeo con la salida anotada, en esta Tesis abordamos este objetivo con la información de movimiento 3D capturado, que nos ayudar a cerrar el lazo entre las caracteríssticas 2D de la imagen y las interpretaciones sobre el movimiento humano.</dim:field>
<dim:field element="description" lang="eng" mdschema="dc" qualifier="abstract">In this work, we explore human action recognition and pose estimation problems. Different from traditional works of learning from 2D images or video sequences and their annotated output, we seek to solve the problems with additional 3D motion capture information, which helps to fill the gap between 2D image features and human interpretations.</dim:field>
<dim:field element="format" mdschema="dc" qualifier="extent">103 p.</dim:field>
<dim:field element="format" mdschema="dc" qualifier="mimetype">application/pdf</dim:field>
<dim:field element="language" mdschema="dc" qualifier="iso">eng</dim:field>
<dim:field element="publisher" mdschema="dc">Universitat Autònoma de Barcelona</dim:field>
<dim:field element="rights" mdschema="dc" qualifier="license">ADVERTIMENT. L'accés als continguts d'aquesta tesi doctoral i la seva utilització ha de respectar els drets de la persona autora. Pot ser utilitzada per a consulta o estudi personal, així com en activitats o materials d'investigació i docència en els termes establerts a l'art. 32 del Text Refós de la Llei de Propietat Intel·lectual (RDL 1/1996). Per altres utilitzacions es requereix l'autorització prèvia i expressa de la persona autora. En qualsevol cas, en la utilització dels seus continguts caldrà indicar de forma clara el nom i cognoms de la persona autora i el títol de la tesi doctoral. No s'autoritza la seva reproducció o altres formes d'explotació efectuades amb finalitats de lucre ni la seva comunicació pública des d'un lloc aliè al servei TDX. Tampoc s'autoritza la presentació del seu contingut en una finestra o marc aliè a TDX (framing). Aquesta reserva de drets afecta tant als continguts de la tesi com als seus resums i índexs.</dim:field>
<dim:field element="rights" mdschema="dc" qualifier="accessLevel">info:eu-repo/semantics/openAccess</dim:field>
<dim:field element="source" mdschema="dc">TDX (Tesis Doctorals en Xarxa)</dim:field>
<dim:field element="subject" mdschema="dc">Computer vision</dim:field>
<dim:field element="subject" mdschema="dc">Action recognition</dim:field>
<dim:field element="subject" mdschema="dc">Pose estination</dim:field>
<dim:field element="subject" mdschema="dc" qualifier="other">Tecnologies</dim:field>
<dim:field element="subject" lang="cat" mdschema="dc" qualifier="udc">519.1</dim:field>
<dim:field element="title" mdschema="dc">3D Motion Data aided Human Action Recognition and Pose Estimation</dim:field>
<dim:field element="type" mdschema="dc">info:eu-repo/semantics/doctoralThesis</dim:field>
<dim:field element="type" mdschema="dc">info:eu-repo/semantics/publishedVersion</dim:field>
<dim:field element="embargo" mdschema="dc" qualifier="terms">cap</dim:field>
</dim:dim>
<?xml version="1.0" encoding="UTF-8" ?>
<thesis schemaLocation="http://www.ndltd.org/standards/metadata/etdms/1.0/ http://www.ndltd.org/standards/metadata/etdms/1.0/etdms.xsd">
<title>3D Motion Data aided Human Action Recognition and Pose Estimation</title>
<creator>Gong, Wenjuan</creator>
<contributor>true</contributor>
<contributor>Gonzàlez i Sabaté, Jordi</contributor>
<contributor>Roca i Marvà, Francesc Xavier</contributor>
<contributor>true</contributor>
<subject>Computer vision</subject>
<subject>Action recognition</subject>
<subject>Pose estination</subject>
<description>En aquest treball s’explora el reconeixement d’accions humanes i l'estimació de la seva postura en seqüències d'imatges. A diferència de les tècniques tradicionals d’aprenentatge a partir d’imatges 2D o vídeo amb la sortida anotada, en aquesta Tesi abordem aquest objectiu amb la informació de moviment 3D capturat, que ens ajudar a tancar el llaç entre les característiques 2D de la imatge i les interpretacions sobre el moviment humà.</description>
<description>En este trabajo se exploran el reconocimiento de acciones humanas y la estimación de su postura en secuencias de imágenes. A diferencia de las técnicas tradicionales de aprendizaje a partir de imágenes 2D o vídeo con la salida anotada, en esta Tesis abordamos este objetivo con la información de movimiento 3D capturado, que nos ayudar a cerrar el lazo entre las caracteríssticas 2D de la imagen y las interpretaciones sobre el movimiento humano.</description>
<description>In this work, we explore human action recognition and pose estimation problems. Different from traditional works of learning from 2D images or video sequences and their annotated output, we seek to solve the problems with additional 3D motion capture information, which helps to fill the gap between 2D image features and human interpretations.</description>
<date>2013-06-10</date>
<date>2013-06-10</date>
<date>2013-05-10</date>
<type>info:eu-repo/semantics/doctoralThesis</type>
<type>info:eu-repo/semantics/publishedVersion</type>
<identifier>9788449036767</identifier>
<identifier>http://hdl.handle.net/10803/116189</identifier>
<identifier>B-15944-2013</identifier>
<language>eng</language>
<rights>ADVERTIMENT. L'accés als continguts d'aquesta tesi doctoral i la seva utilització ha de respectar els drets de la persona autora. Pot ser utilitzada per a consulta o estudi personal, així com en activitats o materials d'investigació i docència en els termes establerts a l'art. 32 del Text Refós de la Llei de Propietat Intel·lectual (RDL 1/1996). Per altres utilitzacions es requereix l'autorització prèvia i expressa de la persona autora. En qualsevol cas, en la utilització dels seus continguts caldrà indicar de forma clara el nom i cognoms de la persona autora i el títol de la tesi doctoral. No s'autoritza la seva reproducció o altres formes d'explotació efectuades amb finalitats de lucre ni la seva comunicació pública des d'un lloc aliè al servei TDX. Tampoc s'autoritza la presentació del seu contingut en una finestra o marc aliè a TDX (framing). Aquesta reserva de drets afecta tant als continguts de la tesi com als seus resums i índexs.</rights>
<rights>info:eu-repo/semantics/openAccess</rights>
<publisher>Universitat Autònoma de Barcelona</publisher>
<source>TDX (Tesis Doctorals en Xarxa)</source>
</thesis>
<?xml version="1.0" encoding="UTF-8" ?>
<record schemaLocation="http://www.loc.gov/MARC21/slim http://www.loc.gov/standards/marcxml/schema/MARC21slim.xsd">
<leader>00925njm 22002777a 4500</leader>
<datafield ind1=" " ind2=" " tag="042">
<subfield code="a">dc</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="720">
<subfield code="a">Gong, Wenjuan</subfield>
<subfield code="e">author</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="260">
<subfield code="c">2013-05-10</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="520">
<subfield code="a">En aquest treball s’explora el reconeixement d’accions humanes i l'estimació de la seva postura en seqüències d'imatges. A diferència de les tècniques tradicionals d’aprenentatge a partir d’imatges 2D o vídeo amb la sortida anotada, en aquesta Tesi abordem aquest objectiu amb la informació de moviment 3D capturat, que ens ajudar a tancar el llaç entre les característiques 2D de la imatge i les interpretacions sobre el moviment humà.</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="520">
<subfield code="a">En este trabajo se exploran el reconocimiento de acciones humanas y la estimación de su postura en secuencias de imágenes. A diferencia de las técnicas tradicionales de aprendizaje a partir de imágenes 2D o vídeo con la salida anotada, en esta Tesis abordamos este objetivo con la información de movimiento 3D capturado, que nos ayudar a cerrar el lazo entre las caracteríssticas 2D de la imagen y las interpretaciones sobre el movimiento humano.</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="520">
<subfield code="a">In this work, we explore human action recognition and pose estimation problems. Different from traditional works of learning from 2D images or video sequences and their annotated output, we seek to solve the problems with additional 3D motion capture information, which helps to fill the gap between 2D image features and human interpretations.</subfield>
</datafield>
<datafield ind1="8" ind2=" " tag="024">
<subfield code="a">9788449036767</subfield>
</datafield>
<datafield ind1="8" ind2=" " tag="024">
<subfield code="a">http://hdl.handle.net/10803/116189</subfield>
</datafield>
<datafield ind1="8" ind2=" " tag="024">
<subfield code="a">B-15944-2013</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Computer vision</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Action recognition</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Pose estination</subfield>
</datafield>
<datafield ind1="0" ind2="0" tag="245">
<subfield code="a">3D Motion Data aided Human Action Recognition and Pose Estimation</subfield>
</datafield>
</record>
<?xml version="1.0" encoding="UTF-8" ?>
<record schemaLocation="http://www.loc.gov/MARC21/slim http://www.loc.gov/standards/marcxml/schema/MARC21slim.xsd">
<leader>nam a 5i 4500</leader>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Computer vision</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Action recognition</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="653">
<subfield code="a">Pose estination</subfield>
</datafield>
<datafield ind1="1" ind2="0" tag="245">
<subfield code="a">3D Motion Data aided Human Action Recognition and Pose Estimation</subfield>
</datafield>
<datafield ind1=" " ind2="1" tag="264">
<subfield code="a">[Barcelona] :</subfield>
<subfield code="b">Universitat Autònoma de Barcelona,</subfield>
<subfield code="c">2013</subfield>
</datafield>
<datafield ind1="4" ind2="0" tag="856">
<subfield code="z">Accés lliure</subfield>
<subfield code="u">http://hdl.handle.net/10803/116189</subfield>
</datafield>
<controlfield tag="007">cr |||||||||||</controlfield>
<controlfield tag="008">AAMMDDs2013 sp ||||fsm||||0|| 0 eng|c</controlfield>
<datafield ind1=" " ind2=" " tag="020">
<subfield code="a">9788449036767</subfield>
</datafield>
<datafield ind1="1" ind2=" " tag="100">
<subfield code="a">Gong, Wenjuan,</subfield>
<subfield code="e">autor</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="300">
<subfield code="a">1 recurs en línia (103 pàgines)</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="502">
<subfield code="g">Tesi</subfield>
<subfield code="b">Doctorat</subfield>
<subfield code="c">Universitat Autònoma de Barcelona. Departament d'Arquitectura de Computadors i Sistemes Operatius</subfield>
<subfield code="d">2013</subfield>
</datafield>
<datafield ind1="2" ind2=" " tag="710">
<subfield code="a">Universitat Autònoma de Barcelona. Departament d'Arquitectura de Computadors i Sistemes Operatius</subfield>
</datafield>
<datafield ind1=" " ind2="4" tag="655">
<subfield code="a">Tesis i dissertacions electròniques</subfield>
</datafield>
<datafield ind1="1" ind2=" " tag="700">
<subfield code="a">Gonzàlez i Sabaté, Jordi,</subfield>
<subfield code="e">supervisor acadèmic</subfield>
</datafield>
<datafield ind1="1" ind2=" " tag="700">
<subfield code="a">Roca i Marvà, Francesc Xavier,</subfield>
<subfield code="e">supervisor acadèmic</subfield>
</datafield>
<datafield ind1="0" ind2=" " tag="730">
<subfield code="a">TDX</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="520">
<subfield code="a">En aquest treball s’explora el reconeixement d’accions humanes i l'estimació de la seva postura en seqüències d'imatges. A diferència de les tècniques tradicionals d’aprenentatge a partir d’imatges 2D o vídeo amb la sortida anotada, en aquesta Tesi abordem aquest objectiu amb la informació de moviment 3D capturat, que ens ajudar a tancar el llaç entre les característiques 2D de la imatge i les interpretacions sobre el moviment humà.</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="998">
<subfield code="a">a</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="040">
<subfield code="a">ES-BaCBU</subfield>
<subfield code="b">cat</subfield>
<subfield code="e">rda</subfield>
<subfield code="c">ES-BaCBU</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="336">
<subfield code="a">text</subfield>
<subfield code="b">txt</subfield>
<subfield code="2">rdacontent</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="337">
<subfield code="a">informàtic</subfield>
<subfield code="b">c</subfield>
<subfield code="2">rdamedia</subfield>
</datafield>
<datafield ind1=" " ind2=" " tag="338">
<subfield code="a">recurs en línia</subfield>
<subfield code="b">cr</subfield>
<subfield code="2">rdacarrier</subfield>
</datafield>
</record>
<?xml version="1.0" encoding="UTF-8" ?>
<mets ID=" DSpace_ITEM_10803-116189" OBJID=" hdl:10803/116189" PROFILE="DSpace METS SIP Profile 1.0" TYPE="DSpace ITEM" schemaLocation="http://www.loc.gov/METS/ http://www.loc.gov/standards/mets/mets.xsd">
<metsHdr CREATEDATE="2023-01-27T16:10:45Z">
<agent ROLE="CUSTODIAN" TYPE="ORGANIZATION">
<name>TDX (Tesis Doctorals en Xarxa)</name>
</agent>
</metsHdr>
<dmdSec ID="DMD_10803_116189">
<mdWrap MDTYPE="MODS">
<xmlData schemaLocation="http://www.loc.gov/mods/v3 http://www.loc.gov/standards/mods/v3/mods-3-1.xsd">
<mods:mods schemaLocation="http://www.loc.gov/mods/v3 http://www.loc.gov/standards/mods/v3/mods-3-1.xsd">
<mods:name>
<mods:role>
<mods:roleTerm type="text">author</mods:roleTerm>
</mods:role>
<mods:namePart>Gong, Wenjuan</mods:namePart>
</mods:name>
<mods:name>
<mods:role>
<mods:roleTerm type="text">authoremailshow</mods:roleTerm>
</mods:role>
<mods:namePart>true</mods:namePart>
</mods:name>
<mods:name>
<mods:role>
<mods:roleTerm type="text">director</mods:roleTerm>
</mods:role>
<mods:namePart>Gonzàlez i Sabaté, Jordi</mods:namePart>
</mods:name>
<mods:name>
<mods:role>
<mods:roleTerm type="text">codirector</mods:roleTerm>
</mods:role>
<mods:namePart>Roca i Marvà, Francesc Xavier</mods:namePart>
</mods:name>
<mods:name>
<mods:role>
<mods:roleTerm type="text">authorsendemail</mods:roleTerm>
</mods:role>
<mods:namePart>true</mods:namePart>
</mods:name>
<mods:extension>
<mods:dateAccessioned encoding="iso8601">2013-06-10T08:57:45Z</mods:dateAccessioned>
</mods:extension>
<mods:extension>
<mods:dateAvailable encoding="iso8601">2013-06-10T08:57:45Z</mods:dateAvailable>
</mods:extension>
<mods:originInfo>
<mods:dateIssued encoding="iso8601">2013-05-10</mods:dateIssued>
</mods:originInfo>
<mods:identifier type="isbn">9788449036767</mods:identifier>
<mods:identifier type="uri">http://hdl.handle.net/10803/116189</mods:identifier>
<mods:identifier type="dl">B-15944-2013</mods:identifier>
<mods:abstract>En aquest treball s’explora el reconeixement d’accions humanes i l'estimació de la seva postura en seqüències d'imatges. A diferència de les tècniques tradicionals d’aprenentatge a partir d’imatges 2D o vídeo amb la sortida anotada, en aquesta Tesi abordem aquest objectiu amb la informació de moviment 3D capturat, que ens ajudar a tancar el llaç entre les característiques 2D de la imatge i les interpretacions sobre el moviment humà.</mods:abstract>
<mods:abstract>En este trabajo se exploran el reconocimiento de acciones humanas y la estimación de su postura en secuencias de imágenes. A diferencia de las técnicas tradicionales de aprendizaje a partir de imágenes 2D o vídeo con la salida anotada, en esta Tesis abordamos este objetivo con la información de movimiento 3D capturado, que nos ayudar a cerrar el lazo entre las caracteríssticas 2D de la imagen y las interpretaciones sobre el movimiento humano.</mods:abstract>
<mods:abstract>In this work, we explore human action recognition and pose estimation problems. Different from traditional works of learning from 2D images or video sequences and their annotated output, we seek to solve the problems with additional 3D motion capture information, which helps to fill the gap between 2D image features and human interpretations.</mods:abstract>
<mods:language>
<mods:languageTerm authority="rfc3066">eng</mods:languageTerm>
</mods:language>
<mods:subject>
<mods:topic>Computer vision</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Action recognition</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Pose estination</mods:topic>
</mods:subject>
<mods:titleInfo>
<mods:title>3D Motion Data aided Human Action Recognition and Pose Estimation</mods:title>
</mods:titleInfo>
<mods:genre>info:eu-repo/semantics/doctoralThesis info:eu-repo/semantics/publishedVersion</mods:genre>
</mods:mods>
</xmlData>
</mdWrap>
</dmdSec>
<amdSec ID="FO_10803_116189_1">
<techMD ID="TECH_O_10803_116189_1">
<mdWrap MDTYPE="PREMIS">
<xmlData schemaLocation="http://www.loc.gov/standards/premis http://www.loc.gov/standards/premis/PREMIS-v1-0.xsd">
<premis:premis>
<premis:object>
<premis:objectIdentifier>
<premis:objectIdentifierType>URL</premis:objectIdentifierType>
<premis:objectIdentifierValue>https://www.tdx.cat/bitstream/10803/116189/1/wg1de1.pdf</premis:objectIdentifierValue>
</premis:objectIdentifier>
<premis:objectCategory>File</premis:objectCategory>
<premis:objectCharacteristics>
<premis:fixity>
<premis:messageDigestAlgorithm>MD5</premis:messageDigestAlgorithm>
<premis:messageDigest>980b5fb3cb137431851b8b6da6c5a6ca</premis:messageDigest>
</premis:fixity>
<premis:size>1155155</premis:size>
<premis:format>
<premis:formatDesignation>
<premis:formatName>application/pdf</premis:formatName>
</premis:formatDesignation>
</premis:format>
</premis:objectCharacteristics>
<premis:originalName>wg1de1.pdf</premis:originalName>
</premis:object>
</premis:premis>
</xmlData>
</mdWrap>
</techMD>
</amdSec>
<amdSec ID="FT_10803_116189_2">
<techMD ID="TECH_T_10803_116189_2">
<mdWrap MDTYPE="PREMIS">
<xmlData schemaLocation="http://www.loc.gov/standards/premis http://www.loc.gov/standards/premis/PREMIS-v1-0.xsd">
<premis:premis>
<premis:object>
<premis:objectIdentifier>
<premis:objectIdentifierType>URL</premis:objectIdentifierType>
<premis:objectIdentifierValue>https://www.tdx.cat/bitstream/10803/116189/2/wg1de1.pdf.txt</premis:objectIdentifierValue>
</premis:objectIdentifier>
<premis:objectCategory>File</premis:objectCategory>
<premis:objectCharacteristics>
<premis:fixity>
<premis:messageDigestAlgorithm>MD5</premis:messageDigestAlgorithm>
<premis:messageDigest>39380dbf782d6d4ae39c055e7addad1a</premis:messageDigest>
</premis:fixity>
<premis:size>202907</premis:size>
<premis:format>
<premis:formatDesignation>
<premis:formatName>text/plain</premis:formatName>
</premis:formatDesignation>
</premis:format>
</premis:objectCharacteristics>
<premis:originalName>wg1de1.pdf.txt</premis:originalName>
</premis:object>
</premis:premis>
</xmlData>
</mdWrap>
</techMD>
</amdSec>
<fileSec>
<fileGrp USE="ORIGINAL">
<file ADMID="FO_10803_116189_1" CHECKSUM="980b5fb3cb137431851b8b6da6c5a6ca" CHECKSUMTYPE="MD5" GROUPID="GROUP_BITSTREAM_10803_116189_1" ID="BITSTREAM_ORIGINAL_10803_116189_1" MIMETYPE="application/pdf" SEQ="1" SIZE="1155155">
</file>
</fileGrp>
<fileGrp USE="TEXT">
<file ADMID="FT_10803_116189_2" CHECKSUM="39380dbf782d6d4ae39c055e7addad1a" CHECKSUMTYPE="MD5" GROUPID="GROUP_BITSTREAM_10803_116189_2" ID="BITSTREAM_TEXT_10803_116189_2" MIMETYPE="text/plain" SEQ="2" SIZE="202907">
</file>
</fileGrp>
</fileSec>
<structMap LABEL="DSpace Object" TYPE="LOGICAL">
<div ADMID="DMD_10803_116189" TYPE="DSpace Object Contents">
<div TYPE="DSpace BITSTREAM">
</div>
</div>
</structMap>
</mets>
<?xml version="1.0" encoding="UTF-8" ?>
<mods:mods schemaLocation="http://www.loc.gov/mods/v3 http://www.loc.gov/standards/mods/v3/mods-3-1.xsd">
<mods:name>
<mods:namePart>Gong, Wenjuan</mods:namePart>
</mods:name>
<mods:extension>
<mods:dateAvailable encoding="iso8601">2013-06-10T08:57:45Z</mods:dateAvailable>
</mods:extension>
<mods:extension>
<mods:dateAccessioned encoding="iso8601">2013-06-10T08:57:45Z</mods:dateAccessioned>
</mods:extension>
<mods:originInfo>
<mods:dateIssued encoding="iso8601">2013-05-10</mods:dateIssued>
</mods:originInfo>
<mods:identifier type="isbn">9788449036767</mods:identifier>
<mods:identifier type="uri">http://hdl.handle.net/10803/116189</mods:identifier>
<mods:identifier type="dl">B-15944-2013</mods:identifier>
<mods:abstract>En aquest treball s’explora el reconeixement d’accions humanes i l'estimació de la seva postura en seqüències d'imatges. A diferència de les tècniques tradicionals d’aprenentatge a partir d’imatges 2D o vídeo amb la sortida anotada, en aquesta Tesi abordem aquest objectiu amb la informació de moviment 3D capturat, que ens ajudar a tancar el llaç entre les característiques 2D de la imatge i les interpretacions sobre el moviment humà.</mods:abstract>
<mods:abstract>En este trabajo se exploran el reconocimiento de acciones humanas y la estimación de su postura en secuencias de imágenes. A diferencia de las técnicas tradicionales de aprendizaje a partir de imágenes 2D o vídeo con la salida anotada, en esta Tesis abordamos este objetivo con la información de movimiento 3D capturado, que nos ayudar a cerrar el lazo entre las caracteríssticas 2D de la imagen y las interpretaciones sobre el movimiento humano.</mods:abstract>
<mods:abstract>In this work, we explore human action recognition and pose estimation problems. Different from traditional works of learning from 2D images or video sequences and their annotated output, we seek to solve the problems with additional 3D motion capture information, which helps to fill the gap between 2D image features and human interpretations.</mods:abstract>
<mods:language>
<mods:languageTerm>eng</mods:languageTerm>
</mods:language>
<mods:accessCondition type="useAndReproduction">ADVERTIMENT. L'accés als continguts d'aquesta tesi doctoral i la seva utilització ha de respectar els drets de la persona autora. Pot ser utilitzada per a consulta o estudi personal, així com en activitats o materials d'investigació i docència en els termes establerts a l'art. 32 del Text Refós de la Llei de Propietat Intel·lectual (RDL 1/1996). Per altres utilitzacions es requereix l'autorització prèvia i expressa de la persona autora. En qualsevol cas, en la utilització dels seus continguts caldrà indicar de forma clara el nom i cognoms de la persona autora i el títol de la tesi doctoral. No s'autoritza la seva reproducció o altres formes d'explotació efectuades amb finalitats de lucre ni la seva comunicació pública des d'un lloc aliè al servei TDX. Tampoc s'autoritza la presentació del seu contingut en una finestra o marc aliè a TDX (framing). Aquesta reserva de drets afecta tant als continguts de la tesi com als seus resums i índexs.</mods:accessCondition>
<mods:accessCondition type="useAndReproduction">info:eu-repo/semantics/openAccess</mods:accessCondition>
<mods:subject>
<mods:topic>Computer vision</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Action recognition</mods:topic>
</mods:subject>
<mods:subject>
<mods:topic>Pose estination</mods:topic>
</mods:subject>
<mods:titleInfo>
<mods:title>3D Motion Data aided Human Action Recognition and Pose Estimation</mods:title>
</mods:titleInfo>
<mods:genre>info:eu-repo/semantics/doctoralThesis</mods:genre>
<mods:genre>info:eu-repo/semantics/publishedVersion</mods:genre>
</mods:mods>
<?xml version="1.0" encoding="UTF-8" ?>
<oaire:record schemaLocation="http://namespaceopenaire.eu/schema/oaire/">
<dc:title>3D Motion Data aided Human Action Recognition and Pose Estimation</dc:title>
<datacite:creator>
<datacite:creatorName>Gong, Wenjuan</datacite:creatorName>
</datacite:creator>
<datacite:contributor>true</datacite:contributor>
<datacite:contributor>Gonzàlez i Sabaté, Jordi</datacite:contributor>
<datacite:contributor>Roca i Marvà, Francesc Xavier</datacite:contributor>
<datacite:contributor>true</datacite:contributor>
<datacite:contributor>Universitat Autònoma de Barcelona. Departament d'Arquitectura de Computadors i Sistemes Operatius</datacite:contributor>
<dc:subject>Computer vision</dc:subject>
<dc:subject>Action recognition</dc:subject>
<dc:subject>Pose estination</dc:subject>
<dc:subject>Tecnologies</dc:subject>
<dc:subject>519.1</dc:subject>
<dc:description>En aquest treball s’explora el reconeixement d’accions humanes i l'estimació de la seva postura en seqüències d'imatges. A diferència de les tècniques tradicionals d’aprenentatge a partir d’imatges 2D o vídeo amb la sortida anotada, en aquesta Tesi abordem aquest objectiu amb la informació de moviment 3D capturat, que ens ajudar a tancar el llaç entre les característiques 2D de la imatge i les interpretacions sobre el moviment humà.</dc:description>
<dc:description>En este trabajo se exploran el reconocimiento de acciones humanas y la estimación de su postura en secuencias de imágenes. A diferencia de las técnicas tradicionales de aprendizaje a partir de imágenes 2D o vídeo con la salida anotada, en esta Tesis abordamos este objetivo con la información de movimiento 3D capturado, que nos ayudar a cerrar el lazo entre las caracteríssticas 2D de la imagen y las interpretaciones sobre el movimiento humano.</dc:description>
<dc:description>In this work, we explore human action recognition and pose estimation problems. Different from traditional works of learning from 2D images or video sequences and their annotated output, we seek to solve the problems with additional 3D motion capture information, which helps to fill the gap between 2D image features and human interpretations.</dc:description>
<dc:date>2013-06-10T08:57:45Z</dc:date>
<dc:date>2013-06-10T08:57:45Z</dc:date>
<dc:date>2013-05-10</dc:date>
<dc:type>info:eu-repo/semantics/doctoralThesis</dc:type>
<dc:type>info:eu-repo/semantics/publishedVersion</dc:type>
<datacite:alternateIdentifier>9788449036767</datacite:alternateIdentifier>
<datacite:alternateIdentifier>http://hdl.handle.net/10803/116189</datacite:alternateIdentifier>
<datacite:alternateIdentifier>B-15944-2013</datacite:alternateIdentifier>
<dc:language>eng</dc:language>
<dc:rights>ADVERTIMENT. L'accés als continguts d'aquesta tesi doctoral i la seva utilització ha de respectar els drets de la persona autora. Pot ser utilitzada per a consulta o estudi personal, així com en activitats o materials d'investigació i docència en els termes establerts a l'art. 32 del Text Refós de la Llei de Propietat Intel·lectual (RDL 1/1996). Per altres utilitzacions es requereix l'autorització prèvia i expressa de la persona autora. En qualsevol cas, en la utilització dels seus continguts caldrà indicar de forma clara el nom i cognoms de la persona autora i el títol de la tesi doctoral. No s'autoritza la seva reproducció o altres formes d'explotació efectuades amb finalitats de lucre ni la seva comunicació pública des d'un lloc aliè al servei TDX. Tampoc s'autoritza la presentació del seu contingut en una finestra o marc aliè a TDX (framing). Aquesta reserva de drets afecta tant als continguts de la tesi com als seus resums i índexs.</dc:rights>
<dc:rights>info:eu-repo/semantics/openAccess</dc:rights>
<dc:format>103 p.</dc:format>
<dc:format>application/pdf</dc:format>
<dc:format>application/pdf</dc:format>
<dc:publisher>Universitat Autònoma de Barcelona</dc:publisher>
<dc:source>TDX (Tesis Doctorals en Xarxa)</dc:source>
<oaire:file>https://www.tdx.cat/bitstream/10803/116189/1/wg1de1.pdf</oaire:file>
</oaire:record>
<?xml version="1.0" encoding="UTF-8" ?>
<atom:entry schemaLocation="http://www.w3.org/2005/Atom http://www.kbcafe.com/rss/atom.xsd.xml">
<atom:id>http://hdl.handle.net/10803/116189/ore.xml</atom:id>
<atom:published>2013-06-10T08:57:45Z</atom:published>
<atom:updated>2013-06-10T08:57:45Z</atom:updated>
<atom:source>
<atom:generator>TDX (Tesis Doctorals en Xarxa)</atom:generator>
</atom:source>
<atom:title>3D Motion Data aided Human Action Recognition and Pose Estimation</atom:title>
<atom:author>
<atom:name>Gong, Wenjuan</atom:name>
</atom:author>
<oreatom:triples>
<rdf:Description about="http://hdl.handle.net/10803/116189/ore.xml#atom">
<dcterms:modified>2013-06-10T08:57:45Z</dcterms:modified>
</rdf:Description>
<rdf:Description about="https://www.tdx.cat/bitstream/10803/116189/1/wg1de1.pdf">
<dcterms:description>ORIGINAL</dcterms:description>
</rdf:Description>
<rdf:Description about="https://www.tdx.cat/bitstream/10803/116189/2/wg1de1.pdf.txt">
<dcterms:description>TEXT</dcterms:description>
</rdf:Description>
<rdf:Description about="https://www.tdx.cat/bitstream/10803/116189/3/wg1de1.pdf.xml">
<dcterms:description>MEDIA_DOCUMENT</dcterms:description>
</rdf:Description>
</oreatom:triples>
</atom:entry>
<?xml version="1.0" encoding="UTF-8" ?>
<qdc:qualifieddc schemaLocation="http://purl.org/dc/elements/1.1/ http://dublincore.org/schemas/xmls/qdc/2006/01/06/dc.xsd http://purl.org/dc/terms/ http://dublincore.org/schemas/xmls/qdc/2006/01/06/dcterms.xsd http://dspace.org/qualifieddc/ http://www.ukoln.ac.uk/metadata/dcmi/xmlschema/qualifieddc.xsd">
<dc:title>3D Motion Data aided Human Action Recognition and Pose Estimation</dc:title>
<dc:creator>Gong, Wenjuan</dc:creator>
<dc:contributor>Gonzàlez i Sabaté, Jordi</dc:contributor>
<dc:contributor>Roca i Marvà, Francesc Xavier</dc:contributor>
<dc:subject>Computer vision</dc:subject>
<dc:subject>Action recognition</dc:subject>
<dc:subject>Pose estination</dc:subject>
<dcterms:abstract>En aquest treball s’explora el reconeixement d’accions humanes i l'estimació de la seva postura en seqüències d'imatges. A diferència de les tècniques tradicionals d’aprenentatge a partir d’imatges 2D o vídeo amb la sortida anotada, en aquesta Tesi abordem aquest objectiu amb la informació de moviment 3D capturat, que ens ajudar a tancar el llaç entre les característiques 2D de la imatge i les interpretacions sobre el moviment humà.</dcterms:abstract>
<dcterms:abstract>En este trabajo se exploran el reconocimiento de acciones humanas y la estimación de su postura en secuencias de imágenes. A diferencia de las técnicas tradicionales de aprendizaje a partir de imágenes 2D o vídeo con la salida anotada, en esta Tesis abordamos este objetivo con la información de movimiento 3D capturado, que nos ayudar a cerrar el lazo entre las caracteríssticas 2D de la imagen y las interpretaciones sobre el movimiento humano.</dcterms:abstract>
<dcterms:abstract>In this work, we explore human action recognition and pose estimation problems. Different from traditional works of learning from 2D images or video sequences and their annotated output, we seek to solve the problems with additional 3D motion capture information, which helps to fill the gap between 2D image features and human interpretations.</dcterms:abstract>
<dcterms:dateAccepted>2013-06-10T08:57:45Z</dcterms:dateAccepted>
<dcterms:available>2013-06-10T08:57:45Z</dcterms:available>
<dcterms:created>2013-06-10T08:57:45Z</dcterms:created>
<dcterms:issued>2013-05-10</dcterms:issued>
<dc:type>info:eu-repo/semantics/doctoralThesis</dc:type>
<dc:type>info:eu-repo/semantics/publishedVersion</dc:type>
<dc:identifier>9788449036767</dc:identifier>
<dc:identifier>http://hdl.handle.net/10803/116189</dc:identifier>
<dc:identifier>B-15944-2013</dc:identifier>
<dc:language>eng</dc:language>
<dc:rights>ADVERTIMENT. L'accés als continguts d'aquesta tesi doctoral i la seva utilització ha de respectar els drets de la persona autora. Pot ser utilitzada per a consulta o estudi personal, així com en activitats o materials d'investigació i docència en els termes establerts a l'art. 32 del Text Refós de la Llei de Propietat Intel·lectual (RDL 1/1996). Per altres utilitzacions es requereix l'autorització prèvia i expressa de la persona autora. En qualsevol cas, en la utilització dels seus continguts caldrà indicar de forma clara el nom i cognoms de la persona autora i el títol de la tesi doctoral. No s'autoritza la seva reproducció o altres formes d'explotació efectuades amb finalitats de lucre ni la seva comunicació pública des d'un lloc aliè al servei TDX. Tampoc s'autoritza la presentació del seu contingut en una finestra o marc aliè a TDX (framing). Aquesta reserva de drets afecta tant als continguts de la tesi com als seus resums i índexs.</dc:rights>
<dc:rights>info:eu-repo/semantics/openAccess</dc:rights>
<dc:publisher>Universitat Autònoma de Barcelona</dc:publisher>
<dc:source>TDX (Tesis Doctorals en Xarxa)</dc:source>
</qdc:qualifieddc>
<?xml version="1.0" encoding="UTF-8" ?>
<rdf:RDF schemaLocation="http://www.openarchives.org/OAI/2.0/rdf/ http://www.openarchives.org/OAI/2.0/rdf.xsd">
<ow:Publication about="oai:www.tdx.cat:10803/116189">
<dc:title>3D Motion Data aided Human Action Recognition and Pose Estimation</dc:title>
<dc:creator>Gong, Wenjuan</dc:creator>
<dc:contributor>true</dc:contributor>
<dc:contributor>Gonzàlez i Sabaté, Jordi</dc:contributor>
<dc:contributor>Roca i Marvà, Francesc Xavier</dc:contributor>
<dc:contributor>true</dc:contributor>
<dc:subject>Computer vision</dc:subject>
<dc:subject>Action recognition</dc:subject>
<dc:subject>Pose estination</dc:subject>
<dc:description>En aquest treball s’explora el reconeixement d’accions humanes i l'estimació de la seva postura en seqüències d'imatges. A diferència de les tècniques tradicionals d’aprenentatge a partir d’imatges 2D o vídeo amb la sortida anotada, en aquesta Tesi abordem aquest objectiu amb la informació de moviment 3D capturat, que ens ajudar a tancar el llaç entre les característiques 2D de la imatge i les interpretacions sobre el moviment humà.</dc:description>
<dc:description>En este trabajo se exploran el reconocimiento de acciones humanas y la estimación de su postura en secuencias de imágenes. A diferencia de las técnicas tradicionales de aprendizaje a partir de imágenes 2D o vídeo con la salida anotada, en esta Tesis abordamos este objetivo con la información de movimiento 3D capturado, que nos ayudar a cerrar el lazo entre las caracteríssticas 2D de la imagen y las interpretaciones sobre el movimiento humano.</dc:description>
<dc:description>In this work, we explore human action recognition and pose estimation problems. Different from traditional works of learning from 2D images or video sequences and their annotated output, we seek to solve the problems with additional 3D motion capture information, which helps to fill the gap between 2D image features and human interpretations.</dc:description>
<dc:date>2013-06-10T08:57:45Z</dc:date>
<dc:date>2013-06-10T08:57:45Z</dc:date>
<dc:date>2013-05-10</dc:date>
<dc:type>info:eu-repo/semantics/doctoralThesis</dc:type>
<dc:type>info:eu-repo/semantics/publishedVersion</dc:type>
<dc:identifier>9788449036767</dc:identifier>
<dc:identifier>http://hdl.handle.net/10803/116189</dc:identifier>
<dc:identifier>B-15944-2013</dc:identifier>
<dc:language>eng</dc:language>
<dc:rights>ADVERTIMENT. L'accés als continguts d'aquesta tesi doctoral i la seva utilització ha de respectar els drets de la persona autora. Pot ser utilitzada per a consulta o estudi personal, així com en activitats o materials d'investigació i docència en els termes establerts a l'art. 32 del Text Refós de la Llei de Propietat Intel·lectual (RDL 1/1996). Per altres utilitzacions es requereix l'autorització prèvia i expressa de la persona autora. En qualsevol cas, en la utilització dels seus continguts caldrà indicar de forma clara el nom i cognoms de la persona autora i el títol de la tesi doctoral. No s'autoritza la seva reproducció o altres formes d'explotació efectuades amb finalitats de lucre ni la seva comunicació pública des d'un lloc aliè al servei TDX. Tampoc s'autoritza la presentació del seu contingut en una finestra o marc aliè a TDX (framing). Aquesta reserva de drets afecta tant als continguts de la tesi com als seus resums i índexs.</dc:rights>
<dc:rights>info:eu-repo/semantics/openAccess</dc:rights>
<dc:publisher>Universitat Autònoma de Barcelona</dc:publisher>
<dc:source>TDX (Tesis Doctorals en Xarxa)</dc:source>
</ow:Publication>
</rdf:RDF>
<?xml version="1.0" encoding="UTF-8" ?>
<uketd_dc:uketddc schemaLocation="http://naca.central.cranfield.ac.uk/ethos-oai/2.0/ http://naca.central.cranfield.ac.uk/ethos-oai/2.0/uketd_dc.xsd">
<dc:title>3D Motion Data aided Human Action Recognition and Pose Estimation</dc:title>
<dc:creator>Gong, Wenjuan</dc:creator>
<dcterms:abstract>En aquest treball s’explora el reconeixement d’accions humanes i l'estimació de la seva postura en seqüències d'imatges. A diferència de les tècniques tradicionals d’aprenentatge a partir d’imatges 2D o vídeo amb la sortida anotada, en aquesta Tesi abordem aquest objectiu amb la informació de moviment 3D capturat, que ens ajudar a tancar el llaç entre les característiques 2D de la imatge i les interpretacions sobre el moviment humà.</dcterms:abstract>
<dcterms:abstract>En este trabajo se exploran el reconocimiento de acciones humanas y la estimación de su postura en secuencias de imágenes. A diferencia de las técnicas tradicionales de aprendizaje a partir de imágenes 2D o vídeo con la salida anotada, en esta Tesis abordamos este objetivo con la información de movimiento 3D capturado, que nos ayudar a cerrar el lazo entre las caracteríssticas 2D de la imagen y las interpretaciones sobre el movimiento humano.</dcterms:abstract>
<dcterms:abstract>In this work, we explore human action recognition and pose estimation problems. Different from traditional works of learning from 2D images or video sequences and their annotated output, we seek to solve the problems with additional 3D motion capture information, which helps to fill the gap between 2D image features and human interpretations.</dcterms:abstract>
<uketdterms:institution>Universitat Autònoma de Barcelona</uketdterms:institution>
<dcterms:issued>2013-05-10</dcterms:issued>
<dc:type>info:eu-repo/semantics/doctoralThesis</dc:type>
<dc:type>info:eu-repo/semantics/publishedVersion</dc:type>
<dc:language type="dcterms:ISO639-2">eng</dc:language>
<dcterms:isReferencedBy>http://hdl.handle.net/10803/116189</dcterms:isReferencedBy>
<dc:identifier type="dcterms:URI">https://www.tdx.cat/bitstream/10803/116189/1/wg1de1.pdf</dc:identifier>
<uketdterms:checksum type="uketdterms:MD5">980b5fb3cb137431851b8b6da6c5a6ca</uketdterms:checksum>
<dcterms:hasFormat>https://www.tdx.cat/bitstream/10803/116189/2/wg1de1.pdf.txt</dcterms:hasFormat>
<uketdterms:checksum type="uketdterms:MD5">39380dbf782d6d4ae39c055e7addad1a</uketdterms:checksum>
<uketdterms:embargodate>cap</uketdterms:embargodate>
<dc:subject>Computer vision</dc:subject>
<dc:subject>Action recognition</dc:subject>
<dc:subject>Pose estination</dc:subject>
<dc:subject>Tecnologies</dc:subject>
<dc:identifier>9788449036767</dc:identifier>
</uketd_dc:uketddc>
<?xml version="1.0" encoding="UTF-8" ?>
<metadata schemaLocation="http://www.lyncode.com/xoai http://www.lyncode.com/xsd/xoai.xsd">
<element name="dc">
<element name="contributor">
<element name="none">
<field name="value">Universitat Autònoma de Barcelona. Departament d'Arquitectura de Computadors i Sistemes Operatius</field>
</element>
<element name="author">
<element name="none">
<field name="value">Gong, Wenjuan</field>
</element>
</element>
<element name="authoremailshow">
<element name="none">
<field name="value">true</field>
</element>
</element>
<element name="director">
<element name="none">
<field name="value">Gonzàlez i Sabaté, Jordi</field>
</element>
</element>
<element name="codirector">
<element name="none">
<field name="value">Roca i Marvà, Francesc Xavier</field>
</element>
</element>
<element name="authorsendemail">
<element name="none">
<field name="value">true</field>
</element>
</element>
</element>
<element name="date">
<element name="accessioned">
<element name="none">
<field name="value">2013-06-10T08:57:45Z</field>
</element>
</element>
<element name="available">
<element name="none">
<field name="value">2013-06-10T08:57:45Z</field>
</element>
</element>
<element name="issued">
<element name="none">
<field name="value">2013-05-10</field>
</element>
</element>
</element>
<element name="identifier">
<element name="isbn">
<element name="none">
<field name="value">9788449036767</field>
</element>
</element>
<element name="uri">
<element name="none">
<field name="value">http://hdl.handle.net/10803/116189</field>
</element>
</element>
<element name="dl">
<element name="none">
<field name="value">B-15944-2013</field>
</element>
</element>
</element>
<element name="description">
<element name="abstract">
<element name="cat">
<field name="value">En aquest treball s’explora el reconeixement d’accions humanes i l'estimació de la seva postura en seqüències d'imatges. A diferència de les tècniques tradicionals d’aprenentatge a partir d’imatges 2D o vídeo amb la sortida anotada, en aquesta Tesi abordem aquest objectiu amb la informació de moviment 3D capturat, que ens ajudar a tancar el llaç entre les característiques 2D de la imatge i les interpretacions sobre el moviment humà.</field>
</element>
<element name="spa">
<field name="value">En este trabajo se exploran el reconocimiento de acciones humanas y la estimación de su postura en secuencias de imágenes. A diferencia de las técnicas tradicionales de aprendizaje a partir de imágenes 2D o vídeo con la salida anotada, en esta Tesis abordamos este objetivo con la información de movimiento 3D capturado, que nos ayudar a cerrar el lazo entre las caracteríssticas 2D de la imagen y las interpretaciones sobre el movimiento humano.</field>
</element>
<element name="eng">
<field name="value">In this work, we explore human action recognition and pose estimation problems. Different from traditional works of learning from 2D images or video sequences and their annotated output, we seek to solve the problems with additional 3D motion capture information, which helps to fill the gap between 2D image features and human interpretations.</field>
</element>
</element>
</element>
<element name="format">
<element name="extent">
<element name="none">
<field name="value">103 p.</field>
</element>
</element>
<element name="mimetype">
<element name="none">
<field name="value">application/pdf</field>
</element>
</element>
</element>
<element name="language">
<element name="iso">
<element name="none">
<field name="value">eng</field>
</element>
</element>
</element>
<element name="publisher">
<element name="none">
<field name="value">Universitat Autònoma de Barcelona</field>
</element>
</element>
<element name="rights">
<element name="license">
<element name="none">
<field name="value">ADVERTIMENT. L'accés als continguts d'aquesta tesi doctoral i la seva utilització ha de respectar els drets de la persona autora. Pot ser utilitzada per a consulta o estudi personal, així com en activitats o materials d'investigació i docència en els termes establerts a l'art. 32 del Text Refós de la Llei de Propietat Intel·lectual (RDL 1/1996). Per altres utilitzacions es requereix l'autorització prèvia i expressa de la persona autora. En qualsevol cas, en la utilització dels seus continguts caldrà indicar de forma clara el nom i cognoms de la persona autora i el títol de la tesi doctoral. No s'autoritza la seva reproducció o altres formes d'explotació efectuades amb finalitats de lucre ni la seva comunicació pública des d'un lloc aliè al servei TDX. Tampoc s'autoritza la presentació del seu contingut en una finestra o marc aliè a TDX (framing). Aquesta reserva de drets afecta tant als continguts de la tesi com als seus resums i índexs.</field>
</element>
</element>
<element name="accessLevel">
<element name="none">
<field name="value">info:eu-repo/semantics/openAccess</field>
</element>
</element>
</element>
<element name="source">
<element name="none">
<field name="value">TDX (Tesis Doctorals en Xarxa)</field>
</element>
</element>
<element name="subject">
<element name="none">
<field name="value">Computer vision</field>
<field name="value">Action recognition</field>
<field name="value">Pose estination</field>
</element>
<element name="other">
<element name="none">
<field name="value">Tecnologies</field>
</element>
</element>
<element name="udc">
<element name="cat">
<field name="value">519.1</field>
</element>
</element>
</element>
<element name="title">
<element name="none">
<field name="value">3D Motion Data aided Human Action Recognition and Pose Estimation</field>
</element>
</element>
<element name="type">
<element name="none">
<field name="value">info:eu-repo/semantics/doctoralThesis</field>
<field name="value">info:eu-repo/semantics/publishedVersion</field>
</element>
</element>
<element name="embargo">
<element name="terms">
<element name="none">
<field name="value">cap</field>
</element>
</element>
</element>
</element>
<element name="bundles">
<element name="bundle">
<field name="name">ORIGINAL</field>
<element name="bitstreams">
<element name="bitstream">
<field name="name">wg1de1.pdf</field>
<field name="originalName">wg1de1.pdf</field>
<field name="format">application/pdf</field>
<field name="size">1155155</field>
<field name="url">https://www.tdx.cat/bitstream/10803/116189/1/wg1de1.pdf</field>
<field name="checksum">980b5fb3cb137431851b8b6da6c5a6ca</field>
<field name="checksumAlgorithm">MD5</field>
<field name="sid">1</field>
<field name="drm">open access</field>
</element>
</element>
</element>
<element name="bundle">
<field name="name">TEXT</field>
<element name="bitstreams">
<element name="bitstream">
<field name="name">wg1de1.pdf.txt</field>
<field name="originalName">wg1de1.pdf.txt</field>
<field name="description">Extracted Text</field>
<field name="format">text/plain</field>
<field name="size">202907</field>
<field name="url">https://www.tdx.cat/bitstream/10803/116189/2/wg1de1.pdf.txt</field>
<field name="checksum">39380dbf782d6d4ae39c055e7addad1a</field>
<field name="checksumAlgorithm">MD5</field>
<field name="sid">2</field>
<field name="drm">open access</field>
</element>
</element>
</element>
<element name="bundle">
<field name="name">MEDIA_DOCUMENT</field>
<element name="bitstreams">
<element name="bitstream">
<field name="name">wg1de1.pdf.xml</field>
<field name="originalName">wg1de1.pdf.xml</field>
<field name="description">Document Consulta</field>
<field name="format">text/xml</field>
<field name="size">106</field>
<field name="url">https://www.tdx.cat/bitstream/10803/116189/3/wg1de1.pdf.xml</field>
<field name="checksum">c4d98caff9895cd9f6d349774e3d1b54</field>
<field name="checksumAlgorithm">MD5</field>
<field name="sid">3</field>
<field name="drm">open access</field>
</element>
</element>
</element>
</element>
<element name="others">
<field name="handle">10803/116189</field>
<field name="identifier">oai:www.tdx.cat:10803/116189</field>
<field name="lastModifyDate">2017-09-24 09:52:36.702</field>
<field name="drm">open access</field>
</element>
<element name="repository">
<field name="name">TDX (Tesis Doctorals en Xarxa)</field>
<field name="mail">pir@csuc.cat</field>
</element>
</metadata>