<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=iso-2022-jp">
<meta name="Generator" content="Microsoft Word 15 (filtered medium)">
<style><!--
/* Font Definitions */
@font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0in;
        margin-bottom:.0001pt;
        font-size:11.0pt;
        font-family:"Calibri",sans-serif;
        mso-fareast-language:EN-US;}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:#0563C1;
        text-decoration:underline;}
a:visited, span.MsoHyperlinkFollowed
        {mso-style-priority:99;
        color:#954F72;
        text-decoration:underline;}
span.EmailStyle17
        {mso-style-type:personal-compose;
        font-family:"Calibri",sans-serif;
        color:windowtext;}
.MsoChpDefault
        {mso-style-type:export-only;
        font-family:"Calibri",sans-serif;
        mso-fareast-language:EN-US;}
@page WordSection1
        {size:8.5in 11.0in;
        margin:70.85pt 70.85pt 56.7pt 70.85pt;}
div.WordSection1
        {page:WordSection1;}
--></style><!--[if gte mso 9]><xml>
<o:shapedefaults v:ext="edit" spidmax="1026" />
</xml><![endif]--><!--[if gte mso 9]><xml>
<o:shapelayout v:ext="edit">
<o:idmap v:ext="edit" data="1" />
</o:shapelayout></xml><![endif]-->
</head>
<body lang="DE" link="#0563C1" vlink="#954F72">
<div class="WordSection1">
<p class="MsoNormal">Dear colleagues,<o:p></o:p></p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">We wanted to inform you that the deadline for the Eighth Workshop on Eye Tracking and Visualization (ETVIS 2024) has been extended.<o:p></o:p></p>
<p class="MsoNormal">Extended Submission deadline: *Feb 22, 2024*<o:p></o:p></p>
<p class="MsoNormal">________________________________________________________________________<o:p></o:p></p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">You are invited to submit relevant manuscripts for consideration in the<o:p></o:p></p>
<p class="MsoNormal">* Eighth Workshop on Eye Tracking and Visualization (ETVIS 2024) *<o:p></o:p></p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">June 4 - June 7, 2024, Glasgow - United Kingdom in conjunction with the Symposium on Eye Tracking Research and Applications (ETRA): https://etra.acm.org/2024/
<o:p></o:p></p>
<p class="MsoNormal">All accepted papers will be published by ACM as part of the Workshop Proceedings of ETRA 2024.<o:p></o:p></p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">The details are appended and also available at https://www.etvis-workshop.org/etvis-2024.<o:p></o:p></p>
<p class="MsoNormal">Please feel free to contact us directly for any further enquiry.<o:p></o:p></p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">Best regards,<o:p></o:p></p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">Michael Burch (University of Applied Sciences, Chur, Switzerland)<o:p></o:p></p>
<p class="MsoNormal">Kuno Kurzhals (University of Stuttgart, Germany)<o:p></o:p></p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">**************************************************************************<o:p></o:p></p>
<p class="MsoNormal">            Eighth Workshop on Eye Tracking and Visualization (ETVIS 2024)                           
<o:p></o:p></p>
<p class="MsoNormal">            June 4 - June 7, 2024, Glasgow - United Kingdom                                                                           
<o:p></o:p></p>
<p class="MsoNormal">            in conjunction with ACM ETRA 2024                                                                          
<o:p></o:p></p>
<p class="MsoNormal">            https://etra.acm.org/2024/                                                                                            <o:p></o:p></p>
<p class="MsoNormal">**************************************************************************<o:p></o:p></p>
<p class="MsoNormal">            Contact: etvis2024@gmail.com                                                                                   <o:p></o:p></p>
<p class="MsoNormal">**************************************************************************<o:p></o:p></p>
<p class="MsoNormal">________________<o:p></o:p></p>
<p class="MsoNormal">IMPORTANT DATES<o:p></o:p></p>
<p class="MsoNormal">________________<o:p></o:p></p>
<p class="MsoNormal">● Submission Due: Feb 22, 2024 (DEADLINE EXTENDED)<o:p></o:p></p>
<p class="MsoNormal">● Notification: Mar 14, 2024<o:p></o:p></p>
<p class="MsoNormal">● Camera Ready: Apr 05, 2024<o:p></o:p></p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">All accepted papers will be published by ACM.<o:p></o:p></p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">______<o:p></o:p></p>
<p class="MsoNormal">SCOPE<o:p></o:p></p>
<p class="MsoNormal">______<o:p></o:p></p>
<p class="MsoNormal">Broadly, this workshop considers the intersection of eye tracking research with visualization, whether the contributions relate to eye tracking studies
<o:p></o:p></p>
<p class="MsoNormal">of visualizations, or vice versa, visualization techniques for eye tracking.<o:p></o:p></p>
<p class="MsoNormal">Technological advances in computer vision algorithms and sensor hardware have greatly reduced the implementational and financial costs of eye tracking.
<o:p></o:p></p>
<p class="MsoNormal">Thus, it is unsurprising to witness a significant increase in its use as a research tool in fields beyond the traditional domains of biological vision,
<o:p></o:p></p>
<p class="MsoNormal">psychology, and neuroscience, in particular, in visualization and human-computer interaction research.
<o:p></o:p></p>
<p class="MsoNormal">One of the key challenges lies in the analysis, interaction, and visualization of complex spatio-temporal datasets of gaze behavior, which is further
<o:p></o:p></p>
<p class="MsoNormal">complicated by complementary datasets such as semantic labels, user interactions and/or accompanying physiological sensor recordings.
<o:p></o:p></p>
<p class="MsoNormal">Ultimately, the research objective is to allow eye tracking data to be effectively interpreted in terms of the observer’s decision-making and cognitive processes.
<o:p></o:p></p>
<p class="MsoNormal">To achieve this, it is necessary to draw upon our current understanding of gaze-behavior across various and related fields, from vision and cognition to visualization.
<o:p></o:p></p>
<p class="MsoNormal">All together eye tracking is an important field to be understood, be it in the sense of data analysis and visualization, interaction, or user-based evaluation of visualization.<o:p></o:p></p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">_______<o:p></o:p></p>
<p class="MsoNormal">TOPICS<o:p></o:p></p>
<p class="MsoNormal">_______<o:p></o:p></p>
<p class="MsoNormal">Manuscripts are solicited on the following topics with an emphasis on the relationship between eye tracking and visualization, including but not limited to the following:<o:p></o:p></p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">●       Visualization techniques for eye-movement data (inc. spatio-temporal visualization, evolution of gaze patterns, visual analysis of individual behavior, 2D vs. 3D representations of eye-movement data)<o:p></o:p></p>
<p class="MsoNormal">●       Visual analytics of gaze behavior (inc. visual data mining, aggregation, clustering techniques, and metrics for eye-movement data)<o:p></o:p></p>
<p class="MsoNormal">●       Eye-movement data provenance<o:p></o:p></p>
<p class="MsoNormal">●       Standardized metrics for evaluating gaze interactions with visualization<o:p></o:p></p>
<p class="MsoNormal">●       Cognitive models for gaze interactions with visualizations<o:p></o:p></p>
<p class="MsoNormal">●       Novel methods for eye tracking in challenging visualization scenarios<o:p></o:p></p>
<p class="MsoNormal">●       Uncertainty visualization of gaze data<o:p></o:p></p>
<p class="MsoNormal">●       Interactive annotation of gaze and stimulus data<o:p></o:p></p>
<p class="MsoNormal">●       Systems for the visual exploration of eye-movement data<o:p></o:p></p>
<p class="MsoNormal">●       Eye tracking studies that evaluate visualization or visual analytics<o:p></o:p></p>
<p class="MsoNormal">●       Eye tracking in non-WIMP visualization environments, including mobile eye tracking, mobile devices, and large displays<o:p></o:p></p>
<p class="MsoNormal">●       Visualization of eye tracking data in mixed and virtual reality (3df & 6df, 360°)<o:p></o:p></p>
<p class="MsoNormal">●       Visualization applications that rely on eye tracking as an input parameter<o:p></o:p></p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">____________<o:p></o:p></p>
<p class="MsoNormal">SUBMISSIONS<o:p></o:p></p>
<p class="MsoNormal">____________<o:p></o:p></p>
<p class="MsoNormal">Authors are invited to submit original work complying with the ETRA SHORT PAPER format (up to 8 pages in single-column format, any number of references, max. 150 words abstract).<o:p></o:p></p>
<p class="MsoNormal">Also, ensure that the Author Guidelines (https://www.siggraph.org//learn/instructions-authors for SIG sponsored events [sigconf]) are met prior to submission.<o:p></o:p></p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">_________<o:p></o:p></p>
<p class="MsoNormal">ORGANIZERS<o:p></o:p></p>
<p class="MsoNormal">_________<o:p></o:p></p>
<p class="MsoNormal">● Michael Burch, University of Applied Sciences, Chur, Switzerland, michael.burch@fhgr.ch<o:p></o:p></p>
<p class="MsoNormal">● Kuno Kurzhals, University of Stuttgart, Germany, Kuno.Kurzhals@visus.uni-stuttgart.de<o:p></o:p></p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">____________<o:p></o:p></p>
<p class="MsoNormal">PAPER CHAIRS<o:p></o:p></p>
<p class="MsoNormal">____________<o:p></o:p></p>
<p class="MsoNormal">● Cindy Xiong Bearfield, Georgia Institute of Technology, United States, cxiong@u.northwestern.edu<o:p></o:p></p>
<p class="MsoNormal">● Minoru Nakayama, Tokyo Institute of Technology, Japan, nakayama@ict.e.titech.ac.jp<o:p></o:p></p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">__________________<o:p></o:p></p>
<p class="MsoNormal">STEERING COMMITTEE<o:p></o:p></p>
<p class="MsoNormal">__________________<o:p></o:p></p>
<p class="MsoNormal">● Michael Burch, University of Applied Sciences, Chur, Switzerland, michael.burch@fhgr.ch<o:p></o:p></p>
<p class="MsoNormal">● Lewis Chuang, Chemnitz University of Technology, Germany, lewis.chuang@phil.tu-chemnitz.de<o:p></o:p></p>
<p class="MsoNormal">● Daniel Weiskopf, University of Stuttgart, Germany, Daniel.Weiskopf@visus.uni-stuttgart.de<o:p></o:p></p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">___________<o:p></o:p></p>
<p class="MsoNormal">MEDIA CHAIR<o:p></o:p></p>
<p class="MsoNormal">___________<o:p></o:p></p>
<p class="MsoNormal">● Maurice Koch, University of Stuttgart, Germany, Maurice.Koch@visus.uni-stuttgart.de<o:p></o:p></p>
</div>
</body>
</html>