<html><head><meta http-equiv="Content-Type" content="text/html; charset=utf-8"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class=""><div class=""><br class=""></div><div class=""><div class=""><div class="gmail_quote" style="color: rgb(34, 34, 34); font-family: arial, sans-serif; font-size: 12.8px; font-variant-ligatures: normal; background-color: rgb(255, 255, 255);"><div dir="ltr" class=""><div class=""><b class="">IEEE VIS 2018 Workshop:</b></div><div class=""><b class="">MACHINE LEARNING FROM USER INTERACTION FOR VISUALIZATION AND ANALYTICS</b></div><div class=""><br class=""></div><div class=""><b class="">CALL FOR PAPERS</b></div><div class=""><br class=""></div><div class=""><b class="">Date and Location</b>: October 21 or 22, 2018 in Berlin, Germany</div><div class=""><br class=""></div><div class=""><b class="">Website</b>: <a href="https://learningfromusersworkshop.github.io/" target="_blank" style="color: rgb(17, 85, 204);" class="">https://learningfromu<wbr class="">sersworkshop.github.io/</a></div><div class=""><br class=""></div><div class="">The goal of this workshop is to bring together researchers from across the VIS community – SciVis, InfoVis, and VAST – to share their knowledge and build collaborations at the intersection of the Machine Learning and Visualization fields, with a focus on learning from user interaction. Our intention in this workshop is to pull expertise from across all fields of VIS in order to generate open discussion about how we currently learn from user interaction and where we can go with future research in this area. We hope to foster discussion regarding systems, interaction models, and interaction techniques across fields within the VIS community, rather than the current state of having these discussions independently contained within the SciVis/InfoVis/VAST fields. Further, we hope to collaboratively create a research agenda that explores the future of machine learning with user interaction based on the discussion during the workshop.</div><div class=""><br class=""></div><div class=""><b class="">WORKSHOP TOPICS</b></div><div class=""><b class=""><br class=""></b></div><div class="">The topic of the workshop will focus on issues and opportunities related to the use of machine learning to learn from user interaction in the course of data visualization and analysis. Specifically, we will focus on research questions including:</div><div class=""><ul class=""><li style="margin-left: 15px;" class="">How are machine learning algorithms currently learning from user interaction, and what other possibilities exist?<br class=""></li><li style="margin-left: 15px;" class="">What kinds of interactions can provide feedback to machine learning algorithms?<br class=""></li><li style="margin-left: 15px;" class="">What can machine learning algorithms learn from interactions?<br class=""></li><li style="margin-left: 15px;" class="">Which machine learning algorithms are most applicable in this domain?<br class=""></li><li style="margin-left: 15px;" class="">How can machine learning algorithms be designed to enable user interaction and feedback?<br class=""></li><li style="margin-left: 15px;" class="">How can visualizations and interactions be designed to exploit machine learning algorithms?<br class=""></li><li style="margin-left: 15px;" class="">How can visualization system architectures be designed to support machine learning?<br class=""></li><li style="margin-left: 15px;" class="">How should we manage conflicts between the user’s intent and the data or machine learning algorithm capabilities?<br class=""></li><li style="margin-left: 15px;" class="">How can we evaluate systems that incorporate both machine learning algorithms and user interaction together?<br class=""></li><li style="margin-left: 15px;" class="">How can machine learning and user interaction together make both computation and user cognition more efficient?<br class=""></li><li style="margin-left: 15px;" class="">How can we support the sensemaking process by learning from user interaction?<br class=""></li></ul></div><div class=""><br class=""></div><div class=""><b class="">SUBMISSIONS</b></div><div class=""><b class=""><br class=""></b></div><div class="">We have two submission tracks: for papers and for posters. Please note that the submission processes are still being finalized</div><div class=""><br class=""></div><div class=""><b class="">Papers</b></div><div class=""><b class=""><br class=""></b></div><div class="">We invite research and position papers between 5 and 10 pages in length. All submissions must be formatted according to the <a href="http://junctionpublishing.org/vgtc/Track/vis-tvcg.html" class="">IEEE VIS format</a>. Papers are to be submitted online through the Precision Conference System (additional details TBA). All papers accepted for presentation at the workshop will be published on IEEE Xplore and linked from the workshop website. All papers should contain full author names and affiliations. If applicable, a link to a short video (up to 5 min. in length) may also be submitted. The papers will be juried by the organizers and selected external reviewers and will be chosen according to relevance, quality, and likelihood that they will stimulate and contribute to the discussion. At least one author of each accepted paper needs to register for the conference (even if only for the workshop). Registration information will be available on the <a href="http://ieeevis.org/year/2018/welcome" class="">IEEE VIS website</a>.</div><div class=""><br class=""></div><div class="">Important Dates</div><div class=""><ul class=""><li style="margin-left: 15px;" class="">Submission deadline: June 30, 2018<br class=""></li><li style="margin-left: 15px;" class="">Author notification: July 31, 2018<br class=""></li><li style="margin-left: 15px;" class="">Camera-ready deadline: August 20, 2018<br class=""></li><li style="margin-left: 15px;" class="">Speaker Schedule Available: September 15, 2018<br class=""></li><li style="margin-left: 15px;" class="">Workshop: October 21 or 22, 2018<br class=""></li></ul></div><div class=""><br class=""></div><div class=""><b class="">Posters</b></div><div class=""><b class=""><br class=""></b></div><div class="">We invite both late-breaking work and contributions in this area from other research domains to submit extended abstracts between 2 and 4 pages in length. All submissions must be formatted according to the <a href="http://junctionpublishing.org/vgtc/Track/vis-tvcg.html" class="">IEEE VIS format</a>. Extended abstracts are to be submitted online <span style="font-size: small; font-variant-ligatures: normal;" class="">through the Precision Conference System (additional details TBA)</span>. All abstracts accepted for presentation at the workshop will be published on IEEE Xplore and linked from the workshop website. All abstracts should contain full author names and affiliations. If applicable, a link to a short video (up to 5 min. in length) may also be submitted. The abstracts will be juried by the organizers and selected external reviewers and will be chosen according to relevance, quality, and likelihood that they will stimulate and contribute to the discussion. At least one author of each accepted poster needs to register for the conference (even if only for the workshop). Registration information will be available on the <a href="http://ieeevis.org/year/2018/welcome" class="">IEEE VIS website</a>.</div><div class=""><br class=""></div><div class="">Important Dates</div><div class=""><ul class=""><li style="margin-left: 15px;" class="">Submission deadline: August 15, 2018<br class=""></li><li style="margin-left: 15px;" class="">Author notification: September 1, 2018<br class=""></li><li style="margin-left: 15px;" class="">Camera-ready deadline: October 1, 2018<br class=""></li><li style="margin-left: 15px;" class="">Workshop: October 21 or 22, 2018<br class=""></li></ul></div><div class=""><br class=""></div><div class=""><br class=""></div><div class=""><b class="">ORGANIZERS</b></div><div class=""><ul class=""><li style="margin-left: 15px;" class="">John Wenskovitch, Virginia Tech (<a href="mailto:jw87@vt.edu" target="_blank" style="color: rgb(17, 85, 204);" class="">jw87@vt.edu</a>)<br class=""></li><li style="margin-left: 15px;" class="">Michelle Dowling, Virginia Tech (<a href="mailto:dowlingm@vt.edu" target="_blank" style="color: rgb(17, 85, 204);" class="">dowlingm@vt.edu</a>)<br class=""></li><li style="margin-left: 15px;" class="">Chris North, Virginia Tech<br class=""></li><li style="margin-left: 15px;" class="">Remco Chang, Tufts University<br class=""></li><li style="margin-left: 15px;" class="">Alex Endert, Georgia Tech<br class=""></li><li style="margin-left: 15px;" class="">David Rogers, Los Alamos National Lab</li></ul></div></div></div></div><div class=""><br class=""></div></div></body></html>