[{"@type":"PropertyValue","name":"Größe der Daten","value":"2,341 Personen, 11 Videos pro Person gesammelt"},{"@type":"PropertyValue","name":"Ethnische Verteilung","value":"Gelb 786, Weiß 1,002, Schwarz 401, Braun 152"},{"@type":"PropertyValue","name":"Geschlechterverteilung","value":"1,210 Männer, 1,131 Frauen"},{"@type":"PropertyValue","name":"Altersverteilung","value":"Vom Jugendlichen bis zum alten Menschen, mit Schwerpunkt auf junge und mittlere Erwachsene."},{"@type":"PropertyValue","name":"Akquisitionsumgebung","value":"Büroszenen in Innenräumen, z. B. Besprechungsräume, Cafés, Bibliotheken, Schlafzimmer usw."},{"@type":"PropertyValue","name":"Vielfalt der Sammlung","value":"Unterschiedliche menschliche Verhaltensweisen, verschiedene Ethnien, verschiedene Altersgruppen, verschiedene Sitzungsszenarien"},{"@type":"PropertyValue","name":"Erfassungsgeräte","value":"Handy, das den Blick der Laptop-Kamera in Besprechungsszenarien simuliert"},{"@type":"PropertyValue","name":"Sammlung von Inhalten","value":"Erfassen von Daten über menschliches Verhalten in Besprechungsszenarien"},{"@type":"PropertyValue","name":"Datenformat","value":".mp4, .mov"},{"@type":"PropertyValue","name":"Genauigkeit","value":"Basierend auf der Genauigkeit der erfassten Bewegungen muss die Präzision über 97% betragen; die Bewegungsbenennungsgenauigkeit muss über 97% liegen."}]
{"id":1291,"datatype":"1","titleimg":"https://de.nexdata.ai/shujutang/static/image/index/datatang_tuxiang_default.webp","type1":"147","type1str":null,"type2":"149","type2str":null,"dataname":"2,341 Daten zur Erkennung von menschlichem Verhalten bei Besprechungsszenarien","datazy":[{"title":"Größe der Daten","desc":"Größe der Daten","content":"2,341 Personen, 11 Videos pro Person gesammelt"},{"title":"Ethnische Verteilung","desc":"Ethnische Verteilung","content":"Gelb 786, Weiß 1,002, Schwarz 401, Braun 152"},{"title":"Geschlechterverteilung","desc":"Geschlechterverteilung","content":"1,210 Männer, 1,131 Frauen"},{"title":"Altersverteilung","desc":"Altersverteilung","content":"Vom Jugendlichen bis zum alten Menschen, mit Schwerpunkt auf junge und mittlere Erwachsene."},{"title":"Akquisitionsumgebung","desc":"Akquisitionsumgebung","content":"Büroszenen in Innenräumen, z. B. Besprechungsräume, Cafés, Bibliotheken, Schlafzimmer usw."},{"title":"Vielfalt der Sammlung","desc":"Vielfalt der Sammlung","content":"Unterschiedliche menschliche Verhaltensweisen, verschiedene Ethnien, verschiedene Altersgruppen, verschiedene Sitzungsszenarien"},{"title":"Erfassungsgeräte","desc":"Erfassungsgeräte","content":"Handy, das den Blick der Laptop-Kamera in Besprechungsszenarien simuliert"},{"title":"Sammlung von Inhalten","desc":"Sammlung von Inhalten","content":"Erfassen von Daten über menschliches Verhalten in Besprechungsszenarien"},{"title":"Datenformat","desc":"Datenformat","content":".mp4, .mov"},{"title":"Genauigkeit","desc":"Genauigkeit","content":"Basierend auf der Genauigkeit der erfassten Bewegungen muss die Präzision über 97% betragen; die Bewegungsbenennungsgenauigkeit muss über 97% liegen."}],"datatag":"Meeting scenes,Multiple human behaviors,Multiple age groups,Multiple races,Face data","technologydoc":null,"downurl":null,"datainfo":null,"standard":null,"dataylurl":null,"flag":null,"publishtime":null,"createby":null,"createtime":null,"ext1":null,"samplestoreloc":null,"hosturl":null,"datasize":null,"industryPlan":null,"keyInformation":"","samplePresentation":[{"name":"/data/apps/damp/temp/ziptemp/APY231118003_demo1711533678793/APY231118003_demo/1.png","url":"https://bj-oss-datatang-03.oss-cn-beijing.aliyuncs.com/filesInfoUpload/data/apps/damp/temp/ziptemp/APY231118003_demo1711533678793/APY231118003_demo/1.png?Expires=4102329599&OSSAccessKeyId=LTAI8NWs2pDolLNH&Signature=1ZGBB7jjnNfyM0zyQYh10P7Eo3w%3D","intro":"","size":0,"progress":100,"type":"jpg"},{"name":"/data/apps/damp/temp/ziptemp/APY231118003_demo1711533678793/APY231118003_demo/4.png","url":"https://bj-oss-datatang-03.oss-cn-beijing.aliyuncs.com/filesInfoUpload/data/apps/damp/temp/ziptemp/APY231118003_demo1711533678793/APY231118003_demo/4.png?Expires=4102329599&OSSAccessKeyId=LTAI8NWs2pDolLNH&Signature=PCQMTrH1ryh%2Bav31MwlaLCGHesA%3D","intro":"","size":0,"progress":100,"type":"jpg"},{"name":"/data/apps/damp/temp/ziptemp/APY231118003_demo1711533678793/APY231118003_demo/3.png","url":"https://bj-oss-datatang-03.oss-cn-beijing.aliyuncs.com/filesInfoUpload/data/apps/damp/temp/ziptemp/APY231118003_demo1711533678793/APY231118003_demo/3.png?Expires=4102329599&OSSAccessKeyId=LTAI8NWs2pDolLNH&Signature=nvkxBgogC2NvKEXgKaYceGftrBw%3D","intro":"","size":0,"progress":100,"type":"jpg"}],"officialSummary":"2,341 Menschen treffen Szene menschliches Verhalten Anerkennung Daten, einschließlich der gelben, weißen, schwarzen und braunen Menschen, das Alter der mittleren Alters und junge Menschen, sammelte eine Vielzahl von Innen-Büro-Szenen, die den Konferenzraum, Café, Bibliothek, Schlafzimmer, etc., jede Person erfasst 11 Video enthält links und rechts schütteln Körper, Essen, Stretching, und andere menschliche Verhaltensweisen.","dataexampl":null,"datakeyword":["Menschliche Verhaltensdaten"," Gesichtsdatensätze"," Begegnungsszenen"," Sammlung menschlicher Verhaltensdaten"],"isDelete":null,"ids":null,"idsList":null,"datasetCode":null,"productStatus":null,"tagTypeEn":"Task Type,Modalities","tagTypeZh":null,"website":null,"samplePresentationList":null,"datazyList":null,"keyInformationList":null,"dataexamplList":null,"bgimg":null,"datazyScriptList":null,"datakeywordListString":null,"sourceShowPage":"computer","dataShowType":"[{\"code\":\"0\",\"language\":\"ZH\"},{\"code\":\"1\",\"language\":\"ZH\"},{\"code\":\"2\",\"language\":\"EN,JP,PT,DE\"},{\"code\":\"3\",\"language\":\"EN\"},{\"code\":\"4\",\"language\":\"JP\"}]","productNameEn":"2,341 People Human Action Data in Online Conference Scenes","BGimg":"","voiceBg":["/shujutang/static/image/comm/audio_bg.webp","/shujutang/static/image/comm/audio_bg2.webp","/shujutang/static/image/comm/audio_bg3.webp","/shujutang/static/image/comm/audio_bg4.webp","/shujutang/static/image/comm/audio_bg5.webp"],"firstList":[{"name":"/data/apps/damp/temp/ziptemp/APY231118003_demo1711533678793/APY231118003_demo/5.png","url":"https://bj-oss-datatang-03.oss-cn-beijing.aliyuncs.com/filesInfoUpload/data/apps/damp/temp/ziptemp/APY231118003_demo1711533678793/APY231118003_demo/5.png?Expires=4102329599&OSSAccessKeyId=LTAI8NWs2pDolLNH&Signature=jvCgJHzXC1x0Hsz1MOfblBTAWLM%3D","intro":"","size":0,"progress":100,"type":"jpg"}]}
2,341 Daten zur Erkennung von menschlichem Verhalten bei Besprechungsszenarien
Menschliche Verhaltensdaten
Gesichtsdatensätze
Begegnungsszenen
Sammlung menschlicher Verhaltensdaten
2,341 Menschen treffen Szene menschliches Verhalten Anerkennung Daten, einschließlich der gelben, weißen, schwarzen und braunen Menschen, das Alter der mittleren Alters und junge Menschen, sammelte eine Vielzahl von Innen-Büro-Szenen, die den Konferenzraum, Café, Bibliothek, Schlafzimmer, etc., jede Person erfasst 11 Video enthält links und rechts schütteln Körper, Essen, Stretching, und andere menschliche Verhaltensweisen.
Dies ist ein kostenpflichtiger Datensatz für kommerzielle Zwecke, Forschungszwecke und mehr. Lizenzierte, fertige Datensätze helfen, KI-Projekte in Gang zu bringen.
Spezifikationen
Größe der Daten
2,341 Personen, 11 Videos pro Person gesammelt
Ethnische Verteilung
Gelb 786, Weiß 1,002, Schwarz 401, Braun 152
Geschlechterverteilung
1,210 Männer, 1,131 Frauen
Altersverteilung
Vom Jugendlichen bis zum alten Menschen, mit Schwerpunkt auf junge und mittlere Erwachsene.
Akquisitionsumgebung
Büroszenen in Innenräumen, z. B. Besprechungsräume, Cafés, Bibliotheken, Schlafzimmer usw.
Vielfalt der Sammlung
Unterschiedliche menschliche Verhaltensweisen, verschiedene Ethnien, verschiedene Altersgruppen, verschiedene Sitzungsszenarien
Erfassungsgeräte
Handy, das den Blick der Laptop-Kamera in Besprechungsszenarien simuliert
Sammlung von Inhalten
Erfassen von Daten über menschliches Verhalten in Besprechungsszenarien
Datenformat
.mp4, .mov
Genauigkeit
Basierend auf der Genauigkeit der erfassten Bewegungen muss die Präzision über 97% betragen; die Bewegungsbenennungsgenauigkeit muss über 97% liegen.