Apple lancerer ny SwiftUI, ARKit 3 og nye Xcode-værktøjer til udvikling af apps
Apples WWDC handler primært om udvikling af tjenester og apps til selskabets efterhånden mange produkter og der var særligt meget fokus på det i går, da Apple lancerede nye værktøjer til udvikling af apps.
SwiftUI og Xcode 11 viser designet i realtid
SwiftUI beskrives af Apple selv som et udviklings-framework, der gør det lettere end nogensinde før at bygge effektive brugerflader. Eftersom SwiftUI er den samme API, der er indbygget i iOS, iPadOS, macOS, watchOS og tvOS, kan udviklerne nemt og hurtigt bygge omfattende, lokale apps på alle Apples platforme.
Et nyt grafisk værktøj til UI-design, som er indbygget i Xcode 11, gør det lettere for UI-designere at sammensætte en brugerflade med SwiftUI – uden overhovedet at skrive kode. Swift-koden genereres automatisk, og når koden ændres, vises ændringerne i brugerfladen med det samme i det visuelle designværktøj. Udviklere kan altså se automatiske eksempler på brugerfladens udseende i realtid, mens de sammensætter, tester og finjusterer koden. Eksempler kan vises direkte på tilsluttede Apple-enheder, f.eks. iPhone, iPad, iPod touch, Apple Watch og Apple TV, så udviklerne kan se, hvordan en app reagerer på Multi-Touch eller bruger kameraet og indbyggede sensorer – alt sammen mens grænsefladen bygges.
ARKit3 med RealityKit og Reality Composer
ARKit 3, RealityKit og Reality Composer er værktøjer, som er designet til at gøre det endnu lettere for udviklere at skabe spændende AR-oplevelser til forbruger- og erhvervsapps. Med Motion Capture kan udviklere integrere menneskers bevægelser i deres apps, og med People Occlusion vises AR-indhold naturligt foran eller bagved personer, så det bliver muligt at skabe mere omsluttende AR-oplevelser og sjove effekter ligesom med grøn skærm.
ARKit 3 gør det også muligt for kameraet på forsiden at registrere op til tre ansigter, og det understøtter brug af kameraet på forsiden og bagsiden på én gang. Derudover understøttes samarbejdssessioner, så man hurtigt kan hoppe ind i en delt AR-oplevelse.
Let at overføre iPad-apps til Mac
Nye værktøjer og API’er gør det meget enklere at overføre iPad-apps til Mac og med opdateringer af Core ML og Create ML er det muligt at skabe endnu mere effektive og strømlinede apps til maskinlæring på enhederne, forklarer Apple.
Med Xcode kan udviklere åbne et eksisterende iPad-projekt og vælge et enkelt afkrydsningsfelt for automatisk at tilføje fundamentale Mac-funktioner og vinduesopdeling, og de kan anvende platformsspecifikke elementer som berøringsbaserede betjeningsknapper til tastatur og mus.
Mac- og iPad-apps er baseret på samme projekt og deler den samme kildekode, så alle kodeændringer oversættes til både iPadOS- og macOS-versionen af en app, hvilket er både tids- og ressourcebesparende for udviklerne, fordi et team kan arbejde på begge versioner af en app. Både i Mac- og iPad-versionen af deres apps kan brugerne udnytte de specifikke funktioner på hver platform, f.eks. præcisionen og hastigheden når de bruger tastaturet, musen og pegefeltet på Mac, og unikke Mac-funktioner som Touch Bar.