Jump to content

giotis

Administrators
  • Content Count

    1028
  • Joined

  • Last visited

  • Days Won

    18

giotis last won the day on May 26 2017

giotis had the most liked content!

4 Followers

About giotis

  • Rank
    Enterprise Admin!
  • Birthday 11/13/1982

Profile Information

  • Gender
    Not Telling
  1. Δεν έχεις καθόλου server τώρα; Νομίζω πως δεν πρέπει να μπλεξεις το Storage με το "control plane". Αν έχεις ένα VM με Windows File Services που αποθηκεύεις τα αρχεία τότε πρέπει να ανησυχείς μόνο για το Backup και ίσως το χώρο αν δεν έχεις αρκετό. Ότι και αν πάρεις πρέπει να είναι presented μέσα από ένα Windows Server και όχι απευθείας από το Storage για πολλούς λόγους.
  2. Τώρα που βρήκα λίγο χρόνο βρήκα και το MSDN article για το πως μπορείς να κάνεις Classify από το Powershell και το δοκίμασα , δουλεύει κανονικά. $cls = New-Object -com Fsrm.FsrmClassificationManager $p = $cls.SetFileProperty("C:\New Text Document .001", "001", "001") Οπότε μπορείς να βάλεις ένα καινούργιο File Management Task στον File Server να τρέχει ένα powershell script. Αυτό το Script διαβάζει όλα τα αρχεία ή δουλεύει με τη λογική του File Change Notification και περνάει μια ιδιότητα. Η ιδιότητα αυτή μπορεί να χρησιμοποιηθεί σαν Rule για το Dynamic Access Control, όπου μπορείς να ορίσεις οι χρήστες του Group 001 να μπορούν να διαβάσουν τα αρχεία με το Property 001. Είναι εύκολο αλλά έχει δουλειά όπως είπα.
  3. Το Dynamic Access control σου δίνει τη δυνατότητα ναι έχεις δυναμικά Access Control Entries , χρησιμοποιεί το File Classification Infrastructure για να κάνει tag τα αρχεία και έπειτα σου δίνει ή αφαιρεί την πρόσβαση on the fly. To πρόβλημά σου είναι πως θέλεις File extensions αλλά μπορείς να το ξεπεράσεις αυτό με Powershell. Γίνεται αλλά θέλει λίγο δουλίτσα
  4. Καλημέρα και από εμένα , δεν έχει καμία απολύτως διαφορά ότι και αν βάλεις. Όλο το παιχνίδι γίνεται στο DNS. Η ερώτηση που κερδίζει το configuration είναι "Που είμαι ; Τι απάντηση πρέπει να πάρω;" Με την απάντηση φτιάχνεις και τα DNS records.
  5. Folder redirection + shadow copies + windows server backup Αφού υπάρχουν λύσεις μέσα στο προιόν τότε γιατί να πάρεις κάτι άλλο
  6. To CAP που έχεις τι γράφει; επιτρέπει την πρόσβαση στον User;
  7. Φαντάζομαι έκανες gpupdate /force Μετά έτσι;
  8. Σωστό είναι , δες λίγο τους RDSGurus http://www.google.gr/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=0ahUKEwjHkMyg8KvMAhUmCpoKHbC9B7MQFgghMAE&url=http%3A%2F%2Fwww.rdsgurus.com%2Fwp-content%2Fuploads%2F2014%2F04%2FAzure-MFA-and-RDG-no-HA.pdf&usg=AFQjCNGqyrtbKVa98AdNpuIbAvGWP9GlNQ
  9. Δοκίμασε στον Server , gpedit.msc -> Computer Configuration ->Windows Settings->Security Settings->Network security: LAN Manager authentication level σε Send LM & NTLM -Use v2 if available. Αυτό είναι και θέμα μεταξύ Server 2003 και 2012
  10. Και ένα μικρό Script για να ειδοποιούνται οι χρήστες πως οι κωδικοί τους θα λήξουν σε X μέρες <# Script to notify users of password change #> #Variables----------------------------------------------------------### #What date is it? $Today=Get-date #How many days before should we notify the user? $Days=50 #Specify a From address $From="p.pataridis@mail.com" #Specify a subject for the message! $Subject="Your account will expire soon! Action Required" #Specify the SMTP Server ! $SMTPServer="10.0.0.1" #-------------------------------------------------------------------### #Start!-------------------------------------------------------------### #Find all users that will need a password change within the specified days, We are searching for all Enabled accounts , with Password never expires option not set and not containing a $ sign (Domains with trust accounts,GMSA accounts ...etc, we do not need those) $Expiring=Get-ADUser -filter {Enabled -eq $True -and PasswordNeverExpires -eq $False -and Name -notlike "*$*"} –Properties "DisplayName", "msDS-UserPasswordExpiryTimeComputed" ,"PasswordExpired" , "Mail","UserPrinciPalName" #Loop through each account foreach ($Account in $Expiring) { #And get its expiring date, convert it to a more readable format as msDS-UserPasswordExpiryTimeComputed is a calculated field and it is a mess $ExpiringDate=[datetime]::FromFileTime($Password."msDS-UserPasswordExpiryTimeComputed") #If you do find an account that has not expired and the remaining days are less than the days specified if ($Account.PasswordExpired -eq $false -and ($ExpiringDate - $Today).Days -lt $Days ) { #Start the notification process #Get the actual UPN in the domain as this may differ from the users email $AccountUPN=$Account.UserPrinciPalName #Calculate the days left $DaysLeft=($ExpiringDate-$Today).Days #Inform the user Send-MailMessage -SmtpServer $SMTPServer -From $From -To $Account.Mail -Subject $Subject -Body "Your AD Password for account $AccountUPN will expire in $DaysLeft days! Please change it." } }
  11. function waitForPSDirect Εμείς να δεις πως περιμένουμε ,πέρα από την πλάκα , το script του Armstrong είναι κέντημα και ακόμη πιο κέντημα θεωρώ το DSC ,αν έχεις την όρεξη φυσικά να το φτιάξεις από το 0. Στην Ελλάδα των 10Nodes max αυτά είναι πολυτέλειες και γίνονται μόνο για τη φάση μας.
  12. Αυτό είναι ένα μικρό script το οποίο έγραψα με τη συμβολή του Γιώργου Βαράκη (aka the Veteran IT!) το οποίο κάνει μια απλή αλλά πολύ σημαντική λειτουργία που δεν μπορεί να γίνει με κάποιο τρόπο από το GUI. "Βγάζει" τα τελευταία recovery points του Microsoft System Center Data Protection Manager σε ένα εξωτερικό δίσκο για αποθήκευση κάπου εκτός του Datacenter. Και είναι πολύ σημαντικό ,καθώς ο DPM Server μπορεί να έχει μια δεύτερη εγκατάσταση σε ένα άλλο datacenter και μέσω της διαδικασίας chaining να μπορούμε να έχουμε και τα Backup της εταιρείας μας στο Continuity Plan , κάποιες φορές χρειαζόμαστε απλά να πάρουμε τα backups και να τα στείλουμε κάπου έξω από το κτίριο πολύ εύκολα (φυσικά κρυπτογραφώντας τα με Bitlocker!) . <#This script will export the latest recovery point of each datasource in a Microsoft System Center 2012 R2 DPM installation to a disk. This disk can be an external disk for offsite storage. In order for DPM to run the recovery procedure a DPM agent must be installed on the server hosting the external disk. Below there is a Variable section in which you should specify the DPM server name , the target server name as well as the disk drive letter. I have also added a small part in which you can remove previous versions of the backup as a a small retention policy. You can also specify which protection groups you want exported , or the script will select all of them. I have not added a Sharepoint recovery because it is a bit more complicated than simply extracting the data. AX Enjoy! #> #Start by importing the System Center 2012 R2 Module import-Module "C:\Program Files\Microsoft System Center 2012 R2\DPM\DPM\bin\dpmcliinitscript.ps1" #------------------------------------------------------------------------------------------------------# #Arm the variables #Who's the DPM Server $DPMServerName = "DPMServer" #Who's the target server? (The server that has an agent installed and the usb hdd) $DestinationServerName = "TargetServer" #What's the disk location for the exports? (What is the drive letter on the usb drive?) $DestinationLocation = "X:\DPM\" #Create a datetime format for the folders $Date = (get-date -DisplayHint date -Format yyyy-MM-dd).ToString() #Protection groups for which we want the exports, if you do not specify it ,all protection groups will be selected , an example would be @("PG_ONE","PG_TWO","SQL") etc $ProtectionGroupName=@() #Get the older backups to compare and delete $files=get-childitem "\\TargetServer\e$\DPM" #Set the retention period , recovery points (and files!any file! be warned!) older than the days specified will be deleted on the target hdd. $Days="-2" #------------------------------------------------------------------------------------------------------# #Start by removing previous backups #Set the exclusion date in minutes,hours or days $Today=(Get-Date).AddDays($Days) #Start comparing files Foreach ($File in $Files) { #If you find a file that is older than the expected date if ($file.Creationtime -lt $Today) #Delete the sucker {remove-item $file.FullName} } #OK, let's see what we got #Create an array and connect to the DPM Server $ProtectionGroups=@() Connect-DPMServer $DPMServerName #Get protection groups,if specified ,otherwise get all of the protection groups If($ProtectionGroupName.Count -ne 0) { foreach($Name in $ProtectionGroupName) { $ProtectionGroups+=Get-DPMProtectionGroup -DPMServerName $DPMServerName |? {$_.Name -eq $Name} } } Else { $ProtectionGroups=Get-DPMProtectionGroup -DPMServerName $DPMServerName } #If you found something , proceed ,else inform the user that nothing was found on the end of this script If($ProtectionGroups.Count -ne 0) { #Let's see what's inside the Protection Groups foreach ($ProtectionGroup in $ProtectionGroups) { #Get the Datasource information , because each protection group might have different protected sources $Datasources= Get-datasource -ProtectionGroup $ProtectionGroup #Start the processing foreach($Datasource in $Datasources) { #Get the last recovery point for the selected datasource,we only need that to restore $LastRecoveryPoint = Get-DPMRecoveryPoint -DataSource $Datasource | sort -Property RepresentedPointInTime -Descending | select -first 1 #Start filtering the datasource so that we get the correct type to proceed with recovery, as each type has a different cmdlet set #If you find a hyperv datasource If($Datasource.ObjectType -match "Hyper-V") { #Construct the foder path using the variables, since all of the VM protected workloads use an Offile\ or Online\ we only need the LastRecoveryPoint.Name $DestinationLocationFinal=$DestinationLocation+$Datasource.ProductionServerName+"\"+ $LastRecoveryPoint.Name+" "+ $Date #Specify recovery options for the selected Type $RecoveryOption = New-DPMRecoveryOption -HyperVDataSource -TargetServer $DestinationServerName -RecoveryLocation CopyToFolder -RecoveryType Restore -TargetLocation $DestinationLocationFinal #Recover the sucker Recover-RecoverableItem -RecoverableItem $LastRecoveryPoint -RecoveryOption $recoveryOption } If($Datasource.ObjectType -match "Volume") { #Construct the foder path using the variables, this is a bit more complicated as volume based datasources use a Drive:\ scheme, we need to trim out the ":\" part to construct a working NTFS path $DatasourceName=$LastRecoveryPoint.name.Trim(":\") $DestinationLocationFinal=$DestinationLocation+$Datasource.ProductionServerName+"\"+ $DatasourceName+" "+ $Date #Specify recovery options for the selected Type $RecoveryOption = New-DPMRecoveryOption -FileSystem -TargetServer $DestinationServerName -RecoveryLocation CopyToFolder -AlternateLocation $DestinationLocationFinal -RestoreSecurity -OverwriteType NoOverwrite -RecoveryType Restore #Recover the sucker Recover-RecoverableItem -RecoverableItem $LastRecoveryPoint -RecoveryOption $recoveryOption } If($Datasource.ObjectType -match "Exchange") { #Construct the foder path using the variables $DestinationLocationFinal=$DestinationLocation+$Datasource.ProductionServerName+"\"+ $LastRecoveryPoint.Name+" "+ $Date #ok , lets find the recoverable item $RecoverableItem=Get-DPMRecoverableItem -RecoverableItem $LastRecoveryPoint -BrowseType Child #Specify recovery options for the selected Type $RecoveryOption = New-DPMRecoveryOption -Exchange -TargetServer $DestinationServerName -TargetLocation $DestinationLocationFinal -ExchangeOperationType NoOperation -RecoveryLocation CopyToFolder -RecoveryType Restore #Recover the sucker Recover-RecoverableItem -RecoverableItem $RecoverableItem[0] -RecoveryOption $recoveryOption } If($Datasource.ObjectType -match "SQL") { #Construct the foder path using the variables $DestinationLocationFinal=$DestinationLocation+$Datasource.ProductionServerName+"\"+ $LastRecoveryPoint.Name+" "+ $Date #Specify recovery options for the selected Type $RecoveryOption = New-DPMRecoveryOption -SQL -TargetServer $DestinationServerName -RecoveryLocation CopyToFolder -RecoveryType Restore -TargetLocation $DestinationLocationFinal #Recover the sucker Recover-RecoverableItem -RecoverableItem $LastRecoveryPoint -RecoveryOption $recoveryOption } If($Datasource.ObjectType -match "System") { #Construct the foder path using the variables $DestinationLocationFinal=$DestinationLocation+$Datasource.ProductionServerName+"\"+ $LastRecoveryPoint.Name+" "+ $Date #Specify recovery options for the selected Type $RecoveryOption = New-DPMRecoveryOption -SystemProtectionDatasource -TargetServer $DestinationServerName -RecoveryLocation CopyToFolder -RecoveryType Restore -TargetLocation $DestinationLocationFinal #Recover the sucker Recover-RecoverableItem -RecoverableItem $LastRecoveryPoint -RecoveryOption $recoveryOption } } } } Else { #Inform the user that nothing was found! Write-Host "No Protection Groups found!" -ForegroundColor Yellow } <# $Editor= Panagiotis Pataridis Senior IT Consultant MCSE,MCSA,MCITP MVP on Enterprise Mobility (Remote Desktop Services) MS-vTSP on Desktop Experience $SubjectMatterExpert= George Varakis MCSE,MCSA,MCITP Enterprise Services Manager #>
  13. Μια από τις ερωτήσεις που δέχομαι (ως MVP του Remote Desktop ή του νέου Enterprise Mobility) είναι το τι γίνεται αν έχω Office 365 και θέλω να το τρέξω σε ένα Remote Desktop περιβάλλον. Σημαντικό είναι το subscription που έχουμε να έχει δικαιώματα για χρήση σε Remote Desktop. Μπορείτε να δείτε τις διαφορετικές εκδόσεις και το τι συμπεριλαμβάνει η κάθε μια σε αυτόν το σύνδεσμο. Καταρχήν , για να παίξει το Office 365 (ή 366 αν είναι δίσεκτο ,επειδή το κινέζικο είναι λίγο πιο μπερδεμένο ακολουθήστε αυτό το link ) σε ένα RDS Server χρειάζεται το shared activation. Η διαδικασία είναι εξαιρετικά απλή , φτιάχνουμε ένα φάκελο στο C:\ του Server που θέλουμε να κάνουμε activation και μέσα στο φάκελο φτιάχνουμε ένα αρχείο που το ονομάζουμε configuration.xml. Αυτό το αρχείο το κάνουμε edit με το Notepad και προσθέτουμε τα παρακάτω Αποθηκεύουμε το αρχείο και κατεβάζουμε από τα παρακάτω links τα αρχεία εγκατάστασης Office Deployment Tool (Office 2013 version) Office Deployment Tool (Office 2016 version) Ανάλογα πάντα με τη version που θέλουμε. Κάνουμε Extract τα αρχεία στο φάκελο. Μέσα στο φάκελο μας λοιπόν θα βρούμε το αρχείο Setup.exe με το οποίο θα κατεβάσουμε καταρχήν τα αρχεία του office. Βγαίνουμε λοιπόν σε ένα command line και τρέχουμε setup.exe /download configuration.xml (η διαδικασία θα αργήσει λίγο να κατεβάσει τα αρχεία μέσω του internet ) και μόλις τελειώσει τρέχουμε Setup.exe /configuration configuration.xml Για περισσότερες πληροφορίες σχετικά με το setup μπορείτε να ρίξετε μια ματιά και στο TechNet
  14. Στο TechNet Virtual Labs υπάρχουν διαθέσιμα πλέον Labs σχετικά με τις τεχνολογίες του Windows Server 2016, Docker, Nano server, containers αλλά και OMS Suite διαθέσιμα με ένα κλικ από το σπίτι σας! Enjoy! Installing and Managing Nano Server In this lab you will use tools included with Windows Server 2016 to deploy new images of Nano Server as virtual machines. You will deploy fully-automated domain member virtual machines. You will additionally deploy virtual machines which are members of workgroups and manually join them to a domain. Finally, you will explore various management tools for Nano Server. Managing Windows Server Containers with Docker In this lab, you will learn how to create and manage Window Server containers. In the first exercise, you will explore the Docker commands to create containers and container images. You will also learn how to create a reusable container image that you can use to deploy containers. In the second exercise, you will use the knowledge you gained in the previous exercise to deploy an Nginx Web server in a container. Managing Windows Server Containers with Windows PowerShell In this lab, you will learn how to create and manage Window Server containers. In the first exercise, you will explore the Windows PowerShell cmdlets to create containers and container Images. You will also learn how to create a reusable container image that you can use to deploy containers. In the second exercise, you will use the knowledge you gained in the previous exercise to deploy an Nginx Web server in a container. Windows Server 2016: Configuring Storage Spaces Direct, Storage Quality of Service, and Storage Replication In this lab you will learn how to configure Storage Spaces Direct, Storage Quality of Service (QoS), and Storage Replication. In first part of the lab, you will learn how to configure Storage Spaces Direct by using System Center Virtual Machine Manager 2016 Technical Preview 2 and Windows Server 2016 Technical Preview 2. You first the configure a Scale-Out File Server that implements Storage Spaces Direct. You will then verify the configuration. Finally, you will learn how to configure Storage Quality of Service classifications in Virtual Machine Manager. In the final lab 2 lab exercises, you will learn how to configure Storage Replication, a feature which transparently replicates a storage volume to new location and then allows you to choose which copy is the master copy. OMS-Hybrid-Management This lab will show you how to get started with Microsoft Operations Management Suite so that you can protect your heterogeneous environments, respond proactively to changing business needs and simplify IT management – all from a single portal with no infrastructure to maintain. The lab will also show you how Microsoft Operations Management Suite delivers immediate, actionable insights into your log data by providing a cost-effective, all-in-one cloud management solution so you can better protect guest workloads in Azure, AWS, Windows Server, Linux, VMWare, and Open Stack.
×
×
  • Create New...