<html><head><meta http-equiv="Content-Type" content="text/html; charset=utf-8"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class=""><div class="">Dear colleagues and friends,</div><div class=""><br class=""></div><div class="">It's a pleasure to invite for submissions to our VISxAI workshop </div><div class="">which will be held during IEEE VIS 2018 in Berlin. </div><div class=""><br class=""></div><div class="">Please don't hesitate to visit the webpage <a href="http://visxai.io/" class="">http://visxai.io</a> or tweet about it #visxai</div><div class=""><br class=""></div><div class="">We are looking forward to see your creative work,</div><div class=""><br class=""></div><div class="">Menna, Fernanda, Adam, Polo, Hen(drik)</div><div class=""><br class=""></div><div class=""><br class=""></div><div class=""><br class=""></div>== Important Dates ===<br class=""><br class=""><div class="">July 12, 2018, 5:00pm PDT: Blog/Notebooks + Position Paper Submission</div><div class="">August 2, 2018: Author Notification</div><div class="">August 16, 2018: Camera-ready Copy for Accepted Submissions</div><div class="">September 7, 2018: VIS Early Bird Registration Ends</div><div class="">    </div><br class="">=== Call for Participation ===<br class=""><br class="">To make our work more accessible to the general audience, we are soliciting submissions in a novel format: blog-style posts and jupyter-like notebooks. In addition we also accept position papers in a more traditional form. Please contact us, if you want to submit a original work in another format. Email: orga.visxai at <a href="http://gmail.com/" class="">gmail.com</a><br class=""><br class="">--- Explainables (Blogs, Markup, and Notebooks) ---<br class=""><br class="">Explainable submissions are the core element of the workshop, as this workshop aims to be a platform for explanatory visualizations focusing on AI         techniques.<br class=""><br class="">Authors have the freedom to use whatever templates and formats they like. However, the narrative should be visual and interactive, and walk readers through a keen understanding on the ML technique or application. Authors may wish to write a Distill-style blog post (format), interactive Idyll markup, or a Jupyter or Observable notebook that integrates codes, visualizations to tell the story.<br class=""><br class="">Here are a few examples of visual explanations of AI methods in these types of formats:<br class=""><br class=""><div class=""><span class="Apple-tab-span" style="white-space: pre;">       </span>• [blog-style] <a href="http://www.r2d3.us/visual-intro-to-machine-learning-part-1/" class="">http://www.r2d3.us/visual-intro-to-machine-learning-part-1/</a></div><div class=""><span class="Apple-tab-span" style="white-space: pre;">    </span>• [blog-style] <a href="http://formafluens.io/client/mix10.html" class="">http://formafluens.io/client/mix10.html</a></div><div class=""><span class="Apple-tab-span" style="white-space: pre;">    </span>• [markup] <a href="https://idyll-lang.org/gallery/the-barnes-hut-approximation" class="">https://idyll-lang.org/gallery/the-barnes-hut-approximation</a></div><div class=""><span class="Apple-tab-span" style="white-space: pre;">        </span>• [notebook] <a href="https://beta.observablehq.com/@nstrayer/t-sne-explained-in-plain-javascript" class="">https://beta.observablehq.com/@nstrayer/t-sne-explained-in-plain-javascript</a></div><div class=""><span class="Apple-tab-span" style="white-space: pre;">      </span>• [markup] <a href="http://nbviewer.jupyter.org/github/agconti/kaggle-titanic/blob/master/Titanic.ipynb" class="">http://nbviewer.jupyter.org/github/agconti/kaggle-titanic/blob/master/Titanic.ipynb</a></div><div class=""><span class="Apple-tab-span" style="white-space: pre;">        </span>• [blog-style] <a href="https://distill.pub/2017/momentum/" class="">https://distill.pub/2017/momentum/</a><br class=""></div><div class=""><br class=""></div>While these examples are informative and excellent, we hope the visualization community will think about ways to creatively expand on such foundational work to explain AI methods using novel interactions and visualizations often present at IEEE VIS. Please contact us, if you want to submit a original work in another format. Email: orga.visxai at <a href="http://gmail.com" class="">gmail.com</a><br class=""><br class="">The best works will be invited to submit their extended work to the online publishing platform distill.pub to generate a cite-able publication for authors.<br class=""><br class="">--- Position Papers ---<br class=""><br class="">We will also accept position papers about impact and role of explainables for VIS in AI. Submissions should be no more than 6 pages long and formatted according to the VGTC formatting guidelines. Some good example of a position papers (not all for AI) can be found here:<br class=""><br class=""><div class=""><span class="Apple-tab-span" style="white-space: pre;">      </span>• Considerations for Visualizing Comparison<br class=""></div><div class=""><span class="Apple-tab-span" style="white-space: pre;">      </span>• Risk the Drift! Stretching Disciplinary Boundaries through Critical Collaborations between the Humanities and Visualization<br class=""></div><div class=""><span class="Apple-tab-span" style="white-space: pre;">  </span>• Towards better analysis of machine learning models: A visual analytics perspective<br class=""></div><div class=""><span class="Apple-tab-span" style="white-space: pre;">        </span>• Pathways for Theoretical Advances in Visualization<br class=""></div>[soon] To create a submission, please use the Precision Conference System. After logging in, go to “new submissions” and select “VISxAI 2018”.<br class=""><br class="">=== Organizers (alphabetic) ===<br class=""><br class="">Mennatallah El-Assady - University of Konstanz<br class="">Duen Horng (Polo) Chau - Georgia Tech<br class="">Adam Perer - IBM Research, MIT-IBM Watson AI Lab<br class="">Hendrik Strobelt - IBM Research, MIT-IBM Watson AI Lab<br class="">Fernanda Viégas - Google Brain</body></html>