Satya Nadella rozpoczął ważny temat, jakim jest sztuczna inteligencja. Przed chwilą omawiał ją w kontekście Azure AI. Teraz czas na kolejny obszar, na którym Microsoft wspomaga i zamierza dalej wspomagać deweloperów - chodzi oczywiście o wspomniany już wcześniej Microsoft 365, pakiet łączący Office z Windows, łącząc wiele urządzeń i wiele typów pracy z zawartością.
Na czym polega "wielozmysłowe", rozciągające się na wiele urządzeń doświadczenie Microsoft 365? "Aplikacje przestały być tylko prostokątnymi okienkami" - uzmysławia nas Satya Nadella - "Możecie dodawać do nich zmysły", takie jak Windows Ink, mowa, dotyk, Mixed Reality, wzrok... Innymi słowy aplikacje oddziałują na wiele zmysłów. Z drugiej strony aplikacje wykraczają poza jedno urządzenie. Przykłady to niedawno dołączona do Windows 10 funkcja Timeline, Adaptive Cards czy korzystanie z botów w Teams na PC, telefonach z Androidem, komputerach Mac itd. Częścią tego doświadczenia jest Cortana.
Nadella podkreśla, że Microsoft nie chce, by rozwiązania, takie jak Cortana, były sztywno powiązane z jednym tylko typem urządzeń, stąd też np. integracja Cortany z Alexą, o której nieco więcej powiedzą Megan Saunders z Microsoft i Tom Taylor z Amazon. Prelegenci pokazują tę integrację na przykładzie urządzenia Harman Kardon z Cortaną gdzie asystence można wydawać polecenia przynależne do obszaru możliwości zarówno Cortany, jak i Alexy. To samo można wykonywać na PC. "Hey Cortana, open Alexa" czy "Hey Alexa, open Cortana" działają wymiennie niezależnie od urządzenia.
Deweloperzy, pragnący zaadresować owo połączone rozwiązanie, by budować skille i docierać na więcej urządzeń, mogą śledzić stronę https://aka.ms/cortana_alexa, gdzie pojawiać się będą najnowsze wieści. Na tym koniec prezentacji Cortany w kontekście Microsoft 365. Za chwilę dowiemy się też nieco więcej na temat Microsoft Graph.