Jump to content


  • Content Count

  • Joined

  • Last visited

  • Days Won


Everything posted by giotis

  1. Δεν έχεις καθόλου server τώρα; Νομίζω πως δεν πρέπει να μπλεξεις το Storage με το "control plane". Αν έχεις ένα VM με Windows File Services που αποθηκεύεις τα αρχεία τότε πρέπει να ανησυχείς μόνο για το Backup και ίσως το χώρο αν δεν έχεις αρκετό. Ότι και αν πάρεις πρέπει να είναι presented μέσα από ένα Windows Server και όχι απευθείας από το Storage για πολλούς λόγους.
  2. Τώρα που βρήκα λίγο χρόνο βρήκα και το MSDN article για το πως μπορείς να κάνεις Classify από το Powershell και το δοκίμασα , δουλεύει κανονικά. $cls = New-Object -com Fsrm.FsrmClassificationManager $p = $cls.SetFileProperty("C:\New Text Document .001", "001", "001") Οπότε μπορείς να βάλεις ένα καινούργιο File Management Task στον File Server να τρέχει ένα powershell script. Αυτό το Script διαβάζει όλα τα αρχεία ή δουλεύει με τη λογική του File Change Notification και περνάει μια ιδιότητα. Η ιδιότητα αυτή μπορεί να χρησιμοποιηθεί σαν Rule για το Dynamic Access Control, όπου μπορείς να ορίσεις οι χρήστες του Group 001 να μπορούν να διαβάσουν τα αρχεία με το Property 001. Είναι εύκολο αλλά έχει δουλειά όπως είπα.
  3. Το Dynamic Access control σου δίνει τη δυνατότητα ναι έχεις δυναμικά Access Control Entries , χρησιμοποιεί το File Classification Infrastructure για να κάνει tag τα αρχεία και έπειτα σου δίνει ή αφαιρεί την πρόσβαση on the fly. To πρόβλημά σου είναι πως θέλεις File extensions αλλά μπορείς να το ξεπεράσεις αυτό με Powershell. Γίνεται αλλά θέλει λίγο δουλίτσα
  4. Καλημέρα και από εμένα , δεν έχει καμία απολύτως διαφορά ότι και αν βάλεις. Όλο το παιχνίδι γίνεται στο DNS. Η ερώτηση που κερδίζει το configuration είναι "Που είμαι ; Τι απάντηση πρέπει να πάρω;" Με την απάντηση φτιάχνεις και τα DNS records.
  5. Folder redirection + shadow copies + windows server backup Αφού υπάρχουν λύσεις μέσα στο προιόν τότε γιατί να πάρεις κάτι άλλο
  6. To CAP που έχεις τι γράφει; επιτρέπει την πρόσβαση στον User;
  7. Φαντάζομαι έκανες gpupdate /force Μετά έτσι;
  8. Σωστό είναι , δες λίγο τους RDSGurus http://www.google.gr/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=0ahUKEwjHkMyg8KvMAhUmCpoKHbC9B7MQFgghMAE&url=http%3A%2F%2Fwww.rdsgurus.com%2Fwp-content%2Fuploads%2F2014%2F04%2FAzure-MFA-and-RDG-no-HA.pdf&usg=AFQjCNGqyrtbKVa98AdNpuIbAvGWP9GlNQ
  9. Δοκίμασε στον Server , gpedit.msc -> Computer Configuration ->Windows Settings->Security Settings->Network security: LAN Manager authentication level σε Send LM & NTLM -Use v2 if available. Αυτό είναι και θέμα μεταξύ Server 2003 και 2012
  10. Και ένα μικρό Script για να ειδοποιούνται οι χρήστες πως οι κωδικοί τους θα λήξουν σε X μέρες <# Script to notify users of password change #> #Variables----------------------------------------------------------### #What date is it? $Today=Get-date #How many days before should we notify the user? $Days=50 #Specify a From address $From="p.pataridis@mail.com" #Specify a subject for the message! $Subject="Your account will expire soon! Action Required" #Specify the SMTP Server ! $SMTPServer="" #-------------------------------------------------------------------### #Start!-------------------------------------------------------------### #Find all users that will need a password change within the specified days, We are searching for all Enabled accounts , with Password never expires option not set and not containing a $ sign (Domains with trust accounts,GMSA accounts ...etc, we do not need those) $Expiring=Get-ADUser -filter {Enabled -eq $True -and PasswordNeverExpires -eq $False -and Name -notlike "*$*"} –Properties "DisplayName", "msDS-UserPasswordExpiryTimeComputed" ,"PasswordExpired" , "Mail","UserPrinciPalName" #Loop through each account foreach ($Account in $Expiring) { #And get its expiring date, convert it to a more readable format as msDS-UserPasswordExpiryTimeComputed is a calculated field and it is a mess $ExpiringDate=[datetime]::FromFileTime($Password."msDS-UserPasswordExpiryTimeComputed") #If you do find an account that has not expired and the remaining days are less than the days specified if ($Account.PasswordExpired -eq $false -and ($ExpiringDate - $Today).Days -lt $Days ) { #Start the notification process #Get the actual UPN in the domain as this may differ from the users email $AccountUPN=$Account.UserPrinciPalName #Calculate the days left $DaysLeft=($ExpiringDate-$Today).Days #Inform the user Send-MailMessage -SmtpServer $SMTPServer -From $From -To $Account.Mail -Subject $Subject -Body "Your AD Password for account $AccountUPN will expire in $DaysLeft days! Please change it." } }
  11. function waitForPSDirect Εμείς να δεις πως περιμένουμε ,πέρα από την πλάκα , το script του Armstrong είναι κέντημα και ακόμη πιο κέντημα θεωρώ το DSC ,αν έχεις την όρεξη φυσικά να το φτιάξεις από το 0. Στην Ελλάδα των 10Nodes max αυτά είναι πολυτέλειες και γίνονται μόνο για τη φάση μας.
  12. Αυτό είναι ένα μικρό script το οποίο έγραψα με τη συμβολή του Γιώργου Βαράκη (aka the Veteran IT!) το οποίο κάνει μια απλή αλλά πολύ σημαντική λειτουργία που δεν μπορεί να γίνει με κάποιο τρόπο από το GUI. "Βγάζει" τα τελευταία recovery points του Microsoft System Center Data Protection Manager σε ένα εξωτερικό δίσκο για αποθήκευση κάπου εκτός του Datacenter. Και είναι πολύ σημαντικό ,καθώς ο DPM Server μπορεί να έχει μια δεύτερη εγκατάσταση σε ένα άλλο datacenter και μέσω της διαδικασίας chaining να μπορούμε να έχουμε και τα Backup της εταιρείας μας στο Continuity Plan , κάποιες φορές χρειαζόμαστε απλά να πάρουμε τα backups και να τα στείλουμε κάπου έξω από το κτίριο πολύ εύκολα (φυσικά κρυπτογραφώντας τα με Bitlocker!) . <#This script will export the latest recovery point of each datasource in a Microsoft System Center 2012 R2 DPM installation to a disk. This disk can be an external disk for offsite storage. In order for DPM to run the recovery procedure a DPM agent must be installed on the server hosting the external disk. Below there is a Variable section in which you should specify the DPM server name , the target server name as well as the disk drive letter. I have also added a small part in which you can remove previous versions of the backup as a a small retention policy. You can also specify which protection groups you want exported , or the script will select all of them. I have not added a Sharepoint recovery because it is a bit more complicated than simply extracting the data. AX Enjoy! #> #Start by importing the System Center 2012 R2 Module import-Module "C:\Program Files\Microsoft System Center 2012 R2\DPM\DPM\bin\dpmcliinitscript.ps1" #------------------------------------------------------------------------------------------------------# #Arm the variables #Who's the DPM Server $DPMServerName = "DPMServer" #Who's the target server? (The server that has an agent installed and the usb hdd) $DestinationServerName = "TargetServer" #What's the disk location for the exports? (What is the drive letter on the usb drive?) $DestinationLocation = "X:\DPM\" #Create a datetime format for the folders $Date = (get-date -DisplayHint date -Format yyyy-MM-dd).ToString() #Protection groups for which we want the exports, if you do not specify it ,all protection groups will be selected , an example would be @("PG_ONE","PG_TWO","SQL") etc $ProtectionGroupName=@() #Get the older backups to compare and delete $files=get-childitem "\\TargetServer\e$\DPM" #Set the retention period , recovery points (and files!any file! be warned!) older than the days specified will be deleted on the target hdd. $Days="-2" #------------------------------------------------------------------------------------------------------# #Start by removing previous backups #Set the exclusion date in minutes,hours or days $Today=(Get-Date).AddDays($Days) #Start comparing files Foreach ($File in $Files) { #If you find a file that is older than the expected date if ($file.Creationtime -lt $Today) #Delete the sucker {remove-item $file.FullName} } #OK, let's see what we got #Create an array and connect to the DPM Server $ProtectionGroups=@() Connect-DPMServer $DPMServerName #Get protection groups,if specified ,otherwise get all of the protection groups If($ProtectionGroupName.Count -ne 0) { foreach($Name in $ProtectionGroupName) { $ProtectionGroups+=Get-DPMProtectionGroup -DPMServerName $DPMServerName |? {$_.Name -eq $Name} } } Else { $ProtectionGroups=Get-DPMProtectionGroup -DPMServerName $DPMServerName } #If you found something , proceed ,else inform the user that nothing was found on the end of this script If($ProtectionGroups.Count -ne 0) { #Let's see what's inside the Protection Groups foreach ($ProtectionGroup in $ProtectionGroups) { #Get the Datasource information , because each protection group might have different protected sources $Datasources= Get-datasource -ProtectionGroup $ProtectionGroup #Start the processing foreach($Datasource in $Datasources) { #Get the last recovery point for the selected datasource,we only need that to restore $LastRecoveryPoint = Get-DPMRecoveryPoint -DataSource $Datasource | sort -Property RepresentedPointInTime -Descending | select -first 1 #Start filtering the datasource so that we get the correct type to proceed with recovery, as each type has a different cmdlet set #If you find a hyperv datasource If($Datasource.ObjectType -match "Hyper-V") { #Construct the foder path using the variables, since all of the VM protected workloads use an Offile\ or Online\ we only need the LastRecoveryPoint.Name $DestinationLocationFinal=$DestinationLocation+$Datasource.ProductionServerName+"\"+ $LastRecoveryPoint.Name+" "+ $Date #Specify recovery options for the selected Type $RecoveryOption = New-DPMRecoveryOption -HyperVDataSource -TargetServer $DestinationServerName -RecoveryLocation CopyToFolder -RecoveryType Restore -TargetLocation $DestinationLocationFinal #Recover the sucker Recover-RecoverableItem -RecoverableItem $LastRecoveryPoint -RecoveryOption $recoveryOption } If($Datasource.ObjectType -match "Volume") { #Construct the foder path using the variables, this is a bit more complicated as volume based datasources use a Drive:\ scheme, we need to trim out the ":\" part to construct a working NTFS path $DatasourceName=$LastRecoveryPoint.name.Trim(":\") $DestinationLocationFinal=$DestinationLocation+$Datasource.ProductionServerName+"\"+ $DatasourceName+" "+ $Date #Specify recovery options for the selected Type $RecoveryOption = New-DPMRecoveryOption -FileSystem -TargetServer $DestinationServerName -RecoveryLocation CopyToFolder -AlternateLocation $DestinationLocationFinal -RestoreSecurity -OverwriteType NoOverwrite -RecoveryType Restore #Recover the sucker Recover-RecoverableItem -RecoverableItem $LastRecoveryPoint -RecoveryOption $recoveryOption } If($Datasource.ObjectType -match "Exchange") { #Construct the foder path using the variables $DestinationLocationFinal=$DestinationLocation+$Datasource.ProductionServerName+"\"+ $LastRecoveryPoint.Name+" "+ $Date #ok , lets find the recoverable item $RecoverableItem=Get-DPMRecoverableItem -RecoverableItem $LastRecoveryPoint -BrowseType Child #Specify recovery options for the selected Type $RecoveryOption = New-DPMRecoveryOption -Exchange -TargetServer $DestinationServerName -TargetLocation $DestinationLocationFinal -ExchangeOperationType NoOperation -RecoveryLocation CopyToFolder -RecoveryType Restore #Recover the sucker Recover-RecoverableItem -RecoverableItem $RecoverableItem[0] -RecoveryOption $recoveryOption } If($Datasource.ObjectType -match "SQL") { #Construct the foder path using the variables $DestinationLocationFinal=$DestinationLocation+$Datasource.ProductionServerName+"\"+ $LastRecoveryPoint.Name+" "+ $Date #Specify recovery options for the selected Type $RecoveryOption = New-DPMRecoveryOption -SQL -TargetServer $DestinationServerName -RecoveryLocation CopyToFolder -RecoveryType Restore -TargetLocation $DestinationLocationFinal #Recover the sucker Recover-RecoverableItem -RecoverableItem $LastRecoveryPoint -RecoveryOption $recoveryOption } If($Datasource.ObjectType -match "System") { #Construct the foder path using the variables $DestinationLocationFinal=$DestinationLocation+$Datasource.ProductionServerName+"\"+ $LastRecoveryPoint.Name+" "+ $Date #Specify recovery options for the selected Type $RecoveryOption = New-DPMRecoveryOption -SystemProtectionDatasource -TargetServer $DestinationServerName -RecoveryLocation CopyToFolder -RecoveryType Restore -TargetLocation $DestinationLocationFinal #Recover the sucker Recover-RecoverableItem -RecoverableItem $LastRecoveryPoint -RecoveryOption $recoveryOption } } } } Else { #Inform the user that nothing was found! Write-Host "No Protection Groups found!" -ForegroundColor Yellow } <# $Editor= Panagiotis Pataridis Senior IT Consultant MCSE,MCSA,MCITP MVP on Enterprise Mobility (Remote Desktop Services) MS-vTSP on Desktop Experience $SubjectMatterExpert= George Varakis MCSE,MCSA,MCITP Enterprise Services Manager #>
  13. Μια από τις ερωτήσεις που δέχομαι (ως MVP του Remote Desktop ή του νέου Enterprise Mobility) είναι το τι γίνεται αν έχω Office 365 και θέλω να το τρέξω σε ένα Remote Desktop περιβάλλον. Σημαντικό είναι το subscription που έχουμε να έχει δικαιώματα για χρήση σε Remote Desktop. Μπορείτε να δείτε τις διαφορετικές εκδόσεις και το τι συμπεριλαμβάνει η κάθε μια σε αυτόν το σύνδεσμο. Καταρχήν , για να παίξει το Office 365 (ή 366 αν είναι δίσεκτο ,επειδή το κινέζικο είναι λίγο πιο μπερδεμένο ακολουθήστε αυτό το link ) σε ένα RDS Server χρειάζεται το shared activation. Η διαδικασία είναι εξαιρετικά απλή , φτιάχνουμε ένα φάκελο στο C:\ του Server που θέλουμε να κάνουμε activation και μέσα στο φάκελο φτιάχνουμε ένα αρχείο που το ονομάζουμε configuration.xml. Αυτό το αρχείο το κάνουμε edit με το Notepad και προσθέτουμε τα παρακάτω Αποθηκεύουμε το αρχείο και κατεβάζουμε από τα παρακάτω links τα αρχεία εγκατάστασης Office Deployment Tool (Office 2013 version) Office Deployment Tool (Office 2016 version) Ανάλογα πάντα με τη version που θέλουμε. Κάνουμε Extract τα αρχεία στο φάκελο. Μέσα στο φάκελο μας λοιπόν θα βρούμε το αρχείο Setup.exe με το οποίο θα κατεβάσουμε καταρχήν τα αρχεία του office. Βγαίνουμε λοιπόν σε ένα command line και τρέχουμε setup.exe /download configuration.xml (η διαδικασία θα αργήσει λίγο να κατεβάσει τα αρχεία μέσω του internet ) και μόλις τελειώσει τρέχουμε Setup.exe /configuration configuration.xml Για περισσότερες πληροφορίες σχετικά με το setup μπορείτε να ρίξετε μια ματιά και στο TechNet
  14. Στο TechNet Virtual Labs υπάρχουν διαθέσιμα πλέον Labs σχετικά με τις τεχνολογίες του Windows Server 2016, Docker, Nano server, containers αλλά και OMS Suite διαθέσιμα με ένα κλικ από το σπίτι σας! Enjoy! Installing and Managing Nano Server In this lab you will use tools included with Windows Server 2016 to deploy new images of Nano Server as virtual machines. You will deploy fully-automated domain member virtual machines. You will additionally deploy virtual machines which are members of workgroups and manually join them to a domain. Finally, you will explore various management tools for Nano Server. Managing Windows Server Containers with Docker In this lab, you will learn how to create and manage Window Server containers. In the first exercise, you will explore the Docker commands to create containers and container images. You will also learn how to create a reusable container image that you can use to deploy containers. In the second exercise, you will use the knowledge you gained in the previous exercise to deploy an Nginx Web server in a container. Managing Windows Server Containers with Windows PowerShell In this lab, you will learn how to create and manage Window Server containers. In the first exercise, you will explore the Windows PowerShell cmdlets to create containers and container Images. You will also learn how to create a reusable container image that you can use to deploy containers. In the second exercise, you will use the knowledge you gained in the previous exercise to deploy an Nginx Web server in a container. Windows Server 2016: Configuring Storage Spaces Direct, Storage Quality of Service, and Storage Replication In this lab you will learn how to configure Storage Spaces Direct, Storage Quality of Service (QoS), and Storage Replication. In first part of the lab, you will learn how to configure Storage Spaces Direct by using System Center Virtual Machine Manager 2016 Technical Preview 2 and Windows Server 2016 Technical Preview 2. You first the configure a Scale-Out File Server that implements Storage Spaces Direct. You will then verify the configuration. Finally, you will learn how to configure Storage Quality of Service classifications in Virtual Machine Manager. In the final lab 2 lab exercises, you will learn how to configure Storage Replication, a feature which transparently replicates a storage volume to new location and then allows you to choose which copy is the master copy. OMS-Hybrid-Management This lab will show you how to get started with Microsoft Operations Management Suite so that you can protect your heterogeneous environments, respond proactively to changing business needs and simplify IT management – all from a single portal with no infrastructure to maintain. The lab will also show you how Microsoft Operations Management Suite delivers immediate, actionable insights into your log data by providing a cost-effective, all-in-one cloud management solution so you can better protect guest workloads in Azure, AWS, Windows Server, Linux, VMWare, and Open Stack.
  15. Αν και είμαστε Offtopic , νομίζω πως το προιόν το "βίασαν" γενικότερα πάνω στον πλανήτη, έβλεπες κάτι servers με 4GB RAM και δυο δίσκους να παλεύουν να κάνουν boot , σαν τα Vista. Ε λίγο και το office 365 και η πλατφόρμα του cloud ίσως το κάναν ασύμφορο για μια πολύ μικρή εταιρεία.
  16. Σωστά , παρόλα αυτά , καλύτερα όχι τον DC ζωντανά , δεν υπάρχει λόγος , ας μη μπλέξει παραπάνω. Στον VMM ,ο 2012 R2 είναι αυτός που δεν κάνει p2v , ο 2012 SP1 είναι νορμάλ. Α ρε SBS , είμαι και Certified !!! Ναι έχω MCTS !!!
  17. Κώστα , επειδή είναι SBS το μόνο valid choice είναι το offline p2v , γιατί δεν μπορεί να σταματήσει το AD Services , δε θα παίζει τίποτα . 700GB πάνω από 1GBit lan θα χρειαστεί 12 ώρες , ίσως και παραπάνω. Επίσης μπορεί να χρησιμοποιήσει τον VMM 2012 SP1 ο οποίος υποστηρίζει Server 2012 , όχι R2 φυσικά ,αλλά θα κάνει τα αρχεία του Vhdx αντί για vhd που είναι πολύ μα πάρα πολύ σημαντικό με μια προϋπόθεση όμως : να έχει HyperV Server 2012 R2 αλλιώς χρειάζεται και άδεια 2012 R2 Standard. . Από θέμα licensing θα υπάρχει θέμα εάν χρησιμοποιεί κάποιο ρόλο στο φυσικό μηχάνημα. Στην ουσία χάνεις το 1 από τα 2 virtualization rights.
  18. Ωραία η ιδέα των certificate για το generate , πάντως , επειδή αναγκάστηκα να ψάξω μια λύση για κάτι αρκετά πιο πολύπλοκο κατέληξα πως η local password db δεν θεωρείται από κανέναν σοβαρή. Τι θέλω να πω , φαντάσου το εξής σενάριο : είσαι hosting provider και πρέπει να δώσεις μια λύση για password reset στους tenants. Δεν θέλεις να ξέρεις το Password (φυσικά το να το ξέρεις είναι απαράδεκτο) , θέλεις απλά κάποιος που έχει ένα account σε μια άλλη DB να μπορεί να κάνει reset το local admin password του VM. Αυτό παίζει μόνο στο Azure , δεν υπάρχει σαν feature στις εκδόσεις του Server. Μάλιστα δεν υπάρχει και κανένα προιόν που να κάνει reset σε local accounts από διάσπαρτα μηχανάκια, ούτε ο Forefront Identity Manager. Όταν έχεις βέβαια ένα domain τα πράγματα γίνονται πολύ πιο εύκολα , είτε με script είτε με το LAPS είτε με 3rd party, ενδιαφέρον επίσης έχει και η υλοποίηση του Cloud Platform System από την MS και τη Dell καθώς αναφέρεται ως feature το local admin password management μέσω scripts (είναι μέσα στο πακέτο του 1.5M Euro). Αυτό με το Certificate πάντως ενδιαφέρον , θα δω μήπως μπορώ να γράψω κάτι παρόμοιο στο Powershell και να μοιράσω certs σε USB για το recover.
  19. Πάμε από την αρχή.. 1)αποθηκεύει τους κωδικούς πρόσβασης plaintext στο Active Directory database, και χρησιμοποιεί AD permissions για να περιορίσει την πρόσβαση στα passwords Ε και; Αν κάποιος είναι ήδη Admin στο AD τότε θα μπορούσε να κάνει τα πάντα , αν πήρε το NTDS.DIT τότε κλάφτα 2) απαιτεί update στο Active Directory schema Fully Supported , δεν είναι 3rd party 3-4) απαιτεί Group Policy client-side extension (an MSI package) σε ολους τους managed hosts, 4) δεν παιζει για stand-alone servers η workstations λογο Active Directory and Group Policy components Ε αυτό εννοείτε , εαν δεν ήταν managed τότε θα το έκανες με το ΧΕΡΙ έτσι και αλλιώς. 5) μπορεί να χρησιμοποιηθεί μόνο για να διαχειριστεί το πολύ δύο local user accounts σε καθε μηχανημα Καλά εαν υπάρχουν περισσότερα των δυο account ,κάτι γίνεται λάθος 6) εννοειτε πως δεν εχουμε τον πηγαιο κωδικα για να κανουμε αλλαγες (C++ source code LAPS client-side extension) Καλά δεν έχουμε τον κώδικα για το τίποτε στην MS , μαθημένοι είμαστε Υ.Γ. αν έχεις πάντως scripts κάντα μια copy να τα έχουμε
  20. Χρόνια πολλά και καλή χρονιά, φρέσκο πράγμα LAPS
  21. Καλημέρα ,just my 2 cents, οι default ρυθμίσεις όντως περιμένουν ipv6 ,ακόμη και το DNS resolution γίνεται πάντα με αυτή τη σειρά, το αν θα δουλεύει μια υπηρεσία σε ipv6 εξαρτάται και από τον παράγοντα L2 . Τι θέλω να πω, πολλοί ISP φέρνουν routers που είναι ipv6 enabled με DHCP on για το ipv6. Αν ένας admin κλείσει το ipv4 DHCP το ipv6 θα κάνει μια χαρά τη δουλειά του με αποτέλεσμα όλα τα services που περιμένουν v4 resolution από τον DNS να αστοχούν. Για να μη συμβαίνει αυτό πρέπει το border ή τα border devices να μην έχουν L2 στο δίκτυο απευθείας αλλά μέσω interfaces. Το θέμα του firewall είναι εύκολο να το λύσεις μιας που το FW των Windows έχει ξεχωριστές ρυθμίσεις για ipv6 . Καλημέρα και πάλι.
  22. Δύσκολα θα είναι πρόβλημα των DC's το πιο πιθανό είναι να υπάρχει πρόβλημα στο Routing , είναι διαφορετικά subnet; Επίσης όταν κολλάει κάνει ping ,tracert κτλ;
  23. OK Οπότε το τσίμπησες το error , άρα για κάποιο λόγο δεν συνδέεται απέναντι στην 389 οπότε πρέπει να δεις γιατί πέφτει και συνδέεται ξανά Όταν έχεις νεότερα ping us
  24. Επίσης δεν έχεις ενημερώσει εάν αυτά είναι VM ,αν είναι φυσικά κτλ για να δούμε λίγο τι παίζει με τον FS. Το να μη σου ανοίγει Folder είναι σχεδόν δικτυακό πρόβλημα . Θα μπορούσε να είναι και από την αδυναμία να βρει tickets για να εξυπηρετεί τους client αλλά εκεί θα είχες κάποιο error. Και ναι δουλεύει κανονικά το Replication over WAN , είναι εξαιρετικά robust και σχεδόν ανίκητο.
  • Create New...