<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=iso-2022-jp">
<style type="text/css" style="display:none;"><!-- P {margin-top:0;margin-bottom:0;} --></style>
</head>
<body dir="ltr">
<div id="divtagdefaultwrapper" dir="ltr" style="font-size: 12pt; color: rgb(0, 0, 0); font-family: Calibri, Helvetica, sans-serif, "EmojiFont", "Apple Color Emoji", "Segoe UI Emoji", NotoColorEmoji, "Segoe UI Symbol", "Android Emoji", EmojiSymbols;">
<p></p>
<div>Dear colleagues,<br>
<br>
You are invited to submit relevant manuscripts for consideration in the<br>
* Seventh Workshop on Eye Tracking and Visualization (ETVIS 2023) *<br>
<br>
May 30 - June 2, 2023, Tuebingen, Germany in conjunction with the Symposium on Eye Tracking Research and Applications (ETRA): https://etra.acm.org/2023/
<br>
All accepted papers will be published by ACM as part of the Short Paper Proceedings of ETRA 2023.<br>
<br>
The details are appended and also available at https://www.etvis-workshop.org/etvis-2023.<br>
Please feel free to contact us directly for any further enquiry.<br>
<br>
Best regards,<br>
<br>
Michael Burch (University of Applied Sciences, Chur, Switzerland)<br>
Guenter Wallner (Johannes Kepler University, Linz, Austria)<br>
<br>
**************************************************************************<br>
            Seventh Workshop on Eye Tracking and Visualization (ETVIS 2023)                            <br>
            May 30 - June 2, 2023, Tuebingen, Germany                                                                             <br>
            in conjunction with ACM ETRA 2023                                                                           <br>
            https://etra.acm.org/2023/                                                                                            <br>
**************************************************************************<br>
            Contact: etvis2023@gmail.com                                                                                   <br>
**************************************************************************<br>
________________<br>
IMPORTANT DATES<br>
________________<br>
● Submission Due:     Feb 22, 2023<br>
● Notification:     Mar 21, 2023<br>
● Camera Ready:     Apr 05, 2023<br>
<br>
All accepted papers will be published by ACM.<br>
<br>
______<br>
SCOPE<br>
______<br>
Broadly, this workshop considers the intersection of eye tracking research with visualization, whether the contributions relate to eye tracking studies
<br>
of visualizations, or vice versa, visualization techniques for eye tracking.<br>
Technological advances in computer vision algorithms and sensor hardware have greatly reduced the implementational and financial costs of eye tracking.
<br>
Thus, it is unsurprising to witness a significant increase in its use as a research tool in fields beyond the traditional domains of biological vision,
<br>
psychology, and neuroscience, in particular, in visualization and human-computer interaction research.
<br>
One of the key challenges lies in the analysis, interaction, and visualization of complex spatio-temporal datasets of gaze behavior, which is further
<br>
complicated by complementary datasets such as semantic labels, user interactions and/or accompanying physiological sensor recordings. Ultimately, the
<br>
research objective is to allow eye tracking data to be effectively interpreted in terms of the observer’s decision-making and cognitive processes.
<br>
To achieve this, it is necessary to draw upon our current understanding of gaze-behavior across various and related fields, from vision and cognition
<br>
to visualization. All together eye tracking is an important field to be understood, be it in the sense of data analysis and visualization, interaction,
<br>
or user-based evaluation of visualization.<br>
<br>
_______<br>
TOPICS<br>
_______<br>
Manuscripts are solicited on the following topics with an emphasis on the relationship between eye tracking and visualization, including but not limited to the following:<br>
<br>
●       Visualization techniques for eye-movement data (inc. spatio-temporal visualization, evolution of gaze patterns, visual analysis of individual behavior, 2D vs. 3D representations of eye-movement data)<br>
●       Visual analytics of gaze behavior (inc. visual data mining, aggregation, clustering techniques, and metrics for eye-movement data)<br>
●       Eye-movement data provenance<br>
●       Standardized metrics for evaluating gaze interactions with visualization<br>
●       Cognitive models for gaze interactions with visualizations<br>
●       Novel methods for eye tracking in challenging visualization scenarios<br>
●       Uncertainty visualization of gaze data<br>
●       Interactive annotation of gaze and stimulus data<br>
●       Systems for the visual exploration of eye-movement data<br>
●       Eye tracking studies that evaluate visualization or visual analytics<br>
●       Eye tracking in non-WIMP visualization environments, including mobile eye tracking, mobile devices, and large displays<br>
●       Visualization of eye tracking data in mixed and virtual reality (3df & 6df, 360°)<br>
●       Visualization applications that rely on eye tracking as an input parameter<br>
<br>
____________<br>
SUBMISSIONS<br>
____________<br>
Authors are invited to submit original work complying with the ETRA SHORT PAPER format (up to 8 pages in single-column format, any number of references, max. 150 words abstract).<br>
Also, ensure that the Author Guidelines (https://www.siggraph.org//learn/instructions-authors for SIG sponsored events [sigconf]) are met prior to submission.<br>
<br>
________<br>
ORGANIZERS<br>
________<br>
● Michael Burch, University of Applied Sciences, Chur, Switzerland, michael.burch@fhgr.ch<br>
● Guenter Wallner, Johannes Kepler University, Linz, Austria, guenter.wallner@jku.at<br>
<br>
________<br>
MEDIA CHAIR<br>
________<br>
● Maurice Koch, University of Stuttgart, Maurice.Koch@visus.uni-stuttgart.de<br>
<br>
________<br>
PUBLICITY CHAIR<br>
________<br>
● Kun-Ting Chen, University of Stuttgart, Kun-Ting.Chen@visus.uni-stuttgart.de<br>
<br>
</div>
<p></p>
</div>
</body>
</html>