Løst og fast fra den virkelige verden…

Hvad er det egentligt med det der DevOps og hvorfor er det på alle måder en fordel at bevæge sig den vej rent metodemæssigt ?

DevOps har efterhånden en del år på bagen men alligevel er der mange forskellige opfattelser af hvad det egentlig er. Så her er en mere. Forudsigelighed.

Udfordringen har altid været at udviklere vil ændre på ting mens driftsfolk vil have stabilitet. De to ting kommer i særdeleshed i karambolage når man vil udvikle stabile systemer. De stritter jo i hver sin retning så hvordan kan man overhovedet mødes? Lidt lige som man gør når man lærer at cykle. Starter i det små, et sted hvor det ikke gør ondt når man vælter – eller bruger støttehjul – og så ellers øver sig.

Fordelen ved at starte småt er ikke mindst at man også hurtigere finder ud af om det i det hele tager duer, det man går og laver. Det er her i starten at fejltagelser er både vigtige og billige. Vi kan og skal lære noget af dem og når man ikke har bygget noget stort op er det let at ændre lidt hist og her i takt med at man bliver klogere.

Når alle så er involveret i at være med, ja så er det også lettere at gentage det man gør igen og igen, naturligvis med det sigte at alt det, der kan gøres automatisk, skal gøres automatisk. Og der er rigtigt meget der kan gøres automatisk.

devops handbook coverAutomatik betyder her at den samme opgave altid løses på samme måde hver gang. Det skaber i sig selv forudsigelighed. Sammen med den megen øvelse og konstante justeringer når der er behov betyder det at den dag den nye IT-løsning skal præsenteres for omverdenen så er den allerede testet på alle leder og kanter. Og der er ingen panik, for vi skal jo bare gøre det vi plejer at gøre.

Med de rigtige værktøjer og arbejdsmetoder bør det desuden også betyde et kærkomment farvel til behovet for ‘lige at give den en skalle’ og det meste af det overarbejde der normalt er forbundet med store IT-opdateringer. For nu er der ingen store opdateringer, kun mange små og dem har vi lavet igen og igen og ved nøjagtigt hvad der skal ske.

Vil du vide mere så er der for kort tid siden udkommet en rigtigt god bog som fortæller hvad det går ud på og gennem eksempler fra den virkelige verden illustrerer hvorfor og hvordan. Find den her.

A propos automatisering…

Man kan utroligt meget med Powershell og den nyeste version som er under et halvt år gammel kan endnu mere og det er endnu lettere at gøre det.

Det er bare sådan med visse Powershell-scripts – altså en række kommandoer som afvikles i en sekvens der ofte bestemmes af hvordan en tidligere kommando i sekvensen svarer – at de nogen gange skal afvikles på en lang række PCer, som ikke alle er tændt samtidigt. Så kan det se lidt svært ud. Her er det fristende at ty til for eksempel Microsoft InTune som jo netop kan distribuere programmer. Programmer, ikke Powershell-scripts, så hvad gør man så? Der er hjælp at hente fra en sikkert noget uventet kant. Internet Explorer udkom for snart en del år siden med et indbygget værktøj til at personliggøre installationen så der var de rigtige logoer og forud opsatte genveje osv osv. IExpressDét værktøj, IExpress, findes i enhver Windows-version den dag i dag og det er rigtigt smart når man vil lave sit Powershell-script om til et program. Så kan InTune sende programmet ud til alle de PCer man gerne vil ‘installere’ det på. Hvis man har System Center Configuration Manager er det naturligvis nemmere men det er helt sikkert også dyrere. Eneste ulempe ved InTune er at det er svært at få at vide ‘hvordan det gik’, så her må man altså selv i sit Powershell-script sørge for at der ‘efterlades spor’ så en supporter senere har mulighed for at finde ud af hvad der skete og måske også hvorfor.

Azure Automation kontra System Center Orchestrator

Som det måske er kommet nogen for øre så har System Center Orchestrator nået sin sidste version og er selv i 2016-udgaven blot en sminket 2012 R2. Hvad gør man så ? Man tyr til Azure Automation. Så korser mange sig og siger ved sig selv:  “Det der Cloud skal vi bare slet ikke – i hvert fald ikke lige nu”.

AzureAutomation

Men tænk lige efter en gang. Workflows eller Runbooks på SCO afvikles jo på Runbook-Servere. Og nøjagtigt det samme sker i Azure Automation. Man vælger blot den variant der hedder Hybrid Runbook Worker – det er nemlig en server du har stående i din egen infrastruktur og dermed selv råder fuldt over. Den skal kunne snakke med Azure men er alligevel ikke tilgængelig fra internettet så der er jo ingen risiko. Dine runbooks ligger trygt i Azure og hentes af din egen server når de skal afvikles.

Så forskellen er faktisk at Azure Automation er System Center Orchestrator med en masse nye muligheder men uden at du selv skal sørge for at holde den opdateret.

Mere Azure – denne gang i form af Windows Server 2016

Hvadbehager ? Jo, den er god nok. Windows 2016 har blandt meget andet fået to ting som tilsammen gør det endnu lettere at bygge fejltolerante systemer i skyen.

Storage Replica som den væsentlige og Cloud Witness som den fikse finte.

Storage Replica gør at to eller flere servere kan dele data uden at skulle dele fysiske harddiske fordi denne feature sørger for at enhver data-blok på den ene kopi kopieres til den anden kopi – uanset hvor der bliver opdateret. Det er faktisk det der sker i Azure Storage som jo garanterer at data findes i tre kopier både lokalt i det enkelte datacenter og for de geo-redundante storage-muligheder et ekstra sæt af kopier  i  et andet  datacenter – det er samme mekanik som nu er tilgængelig i the latest and greatest‘ Windows Server.

image

Cloud Witness er en ny feature i Failover Clustering som minder meget om File-Share witness, blot er det her ikke nødvendigt med en tredje server men man kan nu anvende en Azure Storage-konto i stedet.

Stop the press…

Microsoft har netop publiceret resultaterne af en undersøgelse omkring brug af Cloud som indikerer at flere og flere firmaer ser Skyen som en naturlig del af deres IT, og den viser at sikkerhed ikke længere kun bliver brugt som et argument imod Cloud men i lige så høj grad et argument for Cloud. Desuden viser den at DevOps er ved at blive mere og mere almindeligt. Læs mere her.

image

Read more...

Undgå dyre unødvendige backupløsninger til Office 365

Med preservation policies i Office 365 er det muligt at tilbageholde data fra mailboxes, public folders, SharePoint sites og Skype-beskeder, så de ikke slettes endegyldigt, før dine policies tillader det.
Det betyder, at du ikke længere skal være bange for om data forsvinder, hvis du sletter en bruger, eller hvis en bruger sletter alle sine data.

image

Hvordan sikrer preservation policies dine data?

Når du tilføjer en preservation policy til et site, mailbox eller public folder, vil indholdet blive på deres originale steder. Medarbejderne kan arbejde videre med deres dokumenter og mails, men en kopi af data vil blive tilbageholdt.
I dine SharePoint sites vil data ligge i Preservation Hold biblioteket; mailboxes og public folders gemmer tilbageholdt data i Recoverable Items.

Hvor lang tid kan jeg tilbageholde data, og hvad betyder det for min backup?

Når du konfigurerer din policy, skal du angive, hvilke data du vil tilbageholde, med andre ord hvad politikken skal kigge efter. Desuden skal du definere med keywords om det skal være det hele eller kun udvalgt data. Ttil sidst skal du angive, hvor længe du gerne vil have den til at tilbageholde dataene. Med hensyn til datatab betyder det, at du nu ikke skal være bange for at miste data, når en medarbejder sletter data ved et uheld eller om I kan genfinde data fra en mailbox for en nedlagt bruger.

image

Teknisk gennemgang af preservation policies

Efter du har konfigureret preservation policies på dine mailboxes og den første scanning er gået igennem, vil det være muligt at genskabe data selv efter, at brugerne har tømt data helt ud af deres mailbox.

Når brugeren sletter mails i deres mailbox og tømmer deres slettet post, ryger data i retention kategorien og bliver automatisk slettet helt i Exchange Online, når retentiontiden udløber.
Det er her preservation policies kommer ind i billedet, da de overskriver den retention, der er sat op på mailboxen og sørger for, at data kan genskabes i hele tilbageholdelses-perioden.

image

image

Sådan genskaber du data

For at genskabe data skal du lave en søgning på data i brugerens mailbox.

For at starte en søgning på data skal du gå i Search & Investigation. Derfra sætter du en søgning op ved at vælge, hvilken mailbox der skal scannes, og hvilke ord du gerne vil søge efter.

image

image

image

Herefter skal du vente på, at din søgning afsluttes. Eksporter herefter resultatet til en PST fil, og genskab herefter data via Outlook eller PowerShell.

image

image

Ting du skal gøre, før du prøver den tekniske gennemgang

Vær opmærksom på, at inden vi gennemførte denne demo, kørte vi denne powershell komando på Benny Andersens mailbox for at være sikker på, at den normale delete retention setting ikke skulle drille.

Set-ExecutionPolicy RemoteSigned
$UserCredential = Get-Credential
$Session = New-PSSession -ConfigurationName Microsoft.Exchange -ConnectionUri https://outlook.office365.com/powershell-liveid/ -Credential $UserCredential -Authentication Basic -AllowRedirection
Import-PSSession $Session
Set-Mailbox Benny -RetainDeletedItemsFor 0

Read more...