Learning to Live with Artificial Intelligence: “A Virtuous Circle or a Vicious One?”

“How do we ensure that this transformative new technology delivers us the future we want rather than a future we never signed up for?” asked James Cockayne, Director of UNU’s Centre for Policy Research, introducing an all-day policy seminar on Governing Artificial Intelligence (AI) on June 22nd at IPI.

He cited widespread concern over whether developers will produce an AI that provides ways of ameliorating problems like inequality, climate change, disease, and hunger or one that will serve instead to “entrench” them. “The question for those of us on the outside looking in,” he said, “is whether that is going to be a virtuous circle or a vicious one?’”

A similarly stark duality was advanced by Fabrizio Hochschild, Assistant Secretary-General for Strategic Coordination in the Executive Office of the UN Secretary-General. “Some see the promise of elevating mankind above the shackles of tedious or menial labor, the opportunity for a new utopia,” he said, “while others see a potential dystopia, one where killer robots evade human control and where states control our every thought.” His view was that in fact there is “a little bit of both: states that use AI to further control over their citizens is a reality, and, of course, the use of AI to give medical treatment to people who would otherwise never see it is also a reality.”

He said that the options were so consequential and far reaching to so many people globally that the only effective path to the responsible development of AI would be “genuine international consensus, one that brings together governments, the scientists, industry leaders, and civil society representatives, the thinkers, ethicists and others who design, manage, use or are affected by AI.”

Accordingly, he said, the Secretary-General’s office was focused on four “basic requirements:” being inclusive and people-centered; avoiding harmful, unintended consequences or “malicious use;” making sure that AI “enhances our global collective values, as enshrined in the Charter,” and being prepared to “deal with AI in all of its technological, economic, and ethical dimensions.”

Asked to address the scale of the possible menace of AI to international peace and security, Seán ÓhÉigeartaigh, Executive Director of the Cambridge Centre for the Study of Existential Risk, said, “The biggest threat will be to the economies of countries, their scientific progress, their infrastructure, and how we make sure that everyone who’s going to be affected by AI has a voice at the table.” He added that security, while a key concern, “is only one of the questions alongside distribution, empowerment and justice.”

Amandeep Gill, India’s ambassador to the UN Conference on Disarmament in Geneva, said that AI, for all its benefits to medical science, also could end up concurrently enhancing target acquisition accuracy and creating “even more deadly instruments for warfare.”

Izumi Nakamitsu, Under-Secretary-General and High Representative for Disarmament Affairs of the UN Office for Disarmament Affairs (UNODA), said the dismaying notion of machines controlling weaponry had stirred the Secretary-General to make it “categorically clear that when it comes to the use of force, lethal force, humans should be in control at all times.” She at the same time cautioned people against being too “alarmist” and ignoring the “hugely positive aspect of the technological scientific developments.”

A number of participants spoke of the interaction of man and machine symbolized by AI and warned against confusing the two. “Artificial intelligence is many things to many people and even to our collective imaginations and fears, but there is one thing that it is not, and that is artificial humanity,” said Nicolas Economou, Chairman and CEO of H5. Ambassador Gill reminded the audience that the risk does not come from technology itself, it comes from “what happens around the technology. Technology is always socially constructed. The risk is human, the risk is us.”

John C. Havens, Executive Director of the IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems, referred to the oft-stated truism that machines are limited in not having the values or culture or judgment of humans but added, “How will machines know what we value if we don’t know ourselves?” Speaking along the same lines, Urs Gasser, Executive Director of the Berkman Klein Center for Internet & Society at Harvard, said, “Many of the questions now amplified by AI are really not questions about technology but questions about in what society do we want to live? And we haven’t figured out issues such as bias and discrimination in many contexts, and as long as we don’t figure out these questions, it will be very difficult for the machines to come up with the answers.”

Francesca Rossi, Global AI Ethics Leader at IBM and a professor at the University of Padova, suggested combining talents, saying, “There are many things machines can do even better than us, in the future, much better than us, there have been studies about that, so the best results are doing things together in a collaborative way.” Picking up on that theme was Lana Zaki Nusseibeh, the United Arab Emirates Permanent Representative to the UN, who said, “The international community has a window of opportunity to ensure that necessary information and ethical parameters are built into the design of artificial intelligence for sustainable development.” She proposed three areas of focus for AI governance—addressing the digital divides, establishing an appropriate regulatory environment with all relevant stakeholders, and developing partnerships.

Eleonore Pauwels, Research Fellow on Emerging Cybertechnologies at the UN University New York office, drew attention to the convergence of AI and biology and the potential benefit to public health. “One of the biggest challenges of our time is biocoding our genomes,” she said. “Applying deep learning to our genomes could help us understand which genes are most important to particular functions. Such insight would help us understand how particular disease occurs, why a virus has high transmissibility, why certain populations are more susceptible to certain viruses.”

Gary Marcus, Professor of Psychology and Neural Science at New York University, urged people not to over concern themselves with the dangers of AI. “I want you not to worry about superintelligence,” he said. “We are using statistics as a substitute for common sense, and it works most of the time, but it doesn’t work all the time, which means we can’t trust the machines.” What he worried about instead, he said, was “moderate intelligence with a lot of power.”

Greg Corrado, Principal Scientist, Director of Augmented Intelligence Research at Google, said that moving forward, people would have to “tackle directly” the issues of the safety and the fairness of AI systems. “The good news is that technologists are actually able to help policymakers, so there has been real, concrete, scholarly work being done on how we study safety, how we can make safety in AI as completely unsexy as safety in anti-lock braking systems and also how we can deal with issues of biases in the data they are fed. Because if machines learn by imitating,” he concluded, “they will learn the biases in the data they are fed.”

The event, cosponsored by the International Peace Institute (IPI) and the UN University Centre for Policy Research (UNU-CPR), featured five different panels with expert moderators. Other participants included:

  • Kai Sauer, Permanent Representative of Finland to the UN
  • Jing de Jong-Chen, Partner and General Manager of Global Cybersecurity Strategy, Microsoft
  • Seán ÓhÉigeartaigh, Executive Director, Cambridge Centre for the Study of Existential Risk (CSER)
  • Konstantinos Karachalios, Managing Director, IEEE Standards Association
  • Michael Sung, Chairman, CarbonBlue Innovation and Professor, Fudan University
  • David Li, Founder, Shenzhen Open Innovation Lab
  • Juan Sandoval-Mendiolea, Deputy Permanent Representative of Mexico to the UN
  • Craig Campbell, Special Adviser, New York City Mayor’s Office of Data Analytics
  • Andrew Gilmour, Assistant Secretary-General for Human Rights, Office of the UN High Commissioner for Human Rights
  • Dinah PoKempner, General Counsel, Human Rights Watch
  • Mark Nitzberg, Executive Director, UC Berkeley Center for Human- Compatible AI
  • Joy Buolamwini, Founder, Algorithmic Justice League and MIT Media Lab
  • Sheila Jasanoff, Pforzheimer Professor of Science and Technology Studies, Harvard Kennedy School
  • Danil Kerimi, Head of Information Technology and Electronics Industries, World Economic Forum
  • Ursula Wynhoven, ITU Representative to the United Nations
  • Adam Lupel, Vice President, IPI
  • Jon Benitez, Events Manager, IPI


Posted in Computers and Internet | Tagged , , , | Leave a comment


Η τεχνητή νοημοσύνη «χωράει» στην ενημέρωση

«Αν το πρώτο πράγμα που σας έρχεται στο μυαλό όταν ακούτε τη φράση “τεχνητή νοημοσύνη στη δημοσιογραφία” είναι ένα ρομπότ που γράφει σε ένα πληκτρολόγιο, τότε σίγουρα έχετε καταλάβει κάτι εσφαλμένα», τονίζει ο Ματίας Περέτι, διαχειριστής του προγράμματος έρευνας που εκπονεί από τον περασμένο Απρίλιο το London School of Economics and Political Sciences (LSE) σε συνεργασία με την Google News Initiative για τις εφαρμογές της τεχνητής νοημοσύνης (AI) στη δημοσιογραφία. Σκοπός του «Journalism AI», όπως έχει ονομαστεί, είναι να προάγει τη μάθηση εντός των ειδησεογραφικών οργανισμών παγκοσμίως σε θέματα τεχνητής νοημοσύνης και να καταγράψει έναν οδηγό καλών πρακτικών. Τι είναι, όμως, τεχνητή νοημοσύνη; Ειδικοί αναφέρουν ότι πρόκειται για ένα σύνολο ιδεών, τεχνολογιών και τεχνικών που σχετίζονται με την ικανότητα ενός συστήματος ηλεκτρονικού υπολογιστή να εκτελεί εντολές, οι οποίες υπό φυσιολογικές συνθήκες απαιτούν ανθρώπινη νοημοσύνη.

Μιλώντας στην «Κ», ο διευθυντής του POLIS, της δεξαμενής σκέψης για θέματα δημοσιογραφίας του LSE και ενορχηστρωτής της εν λόγω έρευνας, καθηγητής Τσάρλι Μπέκετ, αποκαλύπτει τους λόγους που αποφάσισε να ασχοληθεί με ζητήματα γύρω από την τεχνητή νοημοσύνη και τις εφαρμογές της στον χώρο της ενημέρωσης αλλά και τις εκτιμήσεις του για το μέλλον της δημοσιογραφίας. «Υπήρξα δημοσιογράφος για 20 χρόνια βιώνοντας πολλές αλλαγές. Το Διαδίκτυο μπήκε στη ζωή μας και η μετάβαση ήταν αρκετά εντυπωσιακή. Τα τελευταία 15 χρόνια είδαμε τους ειδησεογραφικούς οργανισμούς να “βγαίνουν” στο Διαδίκτυο, ενώ γίναμε μάρτυρες της προσπάθειας προσαρμογής των δημοσιογράφων στα μέσα κοινωνικής δικτύωσης. Κατά τη γνώμη μου, η τεχνητή νοημοσύνη είναι κάτι σαν το τρίτο κύμα και γι’ αυτό ήθελα να διερευνήσω τι ακριβώς υπάρχει εκεί έξω, προς ποια κατεύθυνση οδεύουμε, αλλά και το πώς αυτό μπορεί να αλλάξει τη δημοσιογραφία. Οχι μόνο για τους δημοσιογραφικούς οργανισμούς, αλλά και για το κοινό».

Αναλογιζόμενος τα σύγχρονα προβλήματα στον τομέα της ενημέρωσης, όπως η παραπληροφόρηση, η σωρεία πληροφοριών που αποπροσανατολίζουν το κοινό, αλλά και η εν γένει έλλειψη εμπιστοσύνης στα μέσα, ο κ. Μπέκετ αναρωτιέται για το πώς μπορούν οι νέες τεχνολογίες να βοηθήσουν στην αντιμετώπιση αυτών των προβλημάτων και στην επιβίωση της δημοσιογραφίας στο μέλλον. «Αυτές οι τεχνολογίες έχουν ήδη τεράστιες επιπτώσεις σε διάφορους κλάδους, όπως στην οικονομία, την υγεία, τη βιοτεχνολογία ακόμα και την εκπαίδευση, και φοβάμαι ότι αν δεν δούμε έγκαιρα τις θετικές εφαρμογές τους στη δημοσιογραφία τότε μπορεί να μείνουμε πίσω επαναλαμβάνοντας τα λάθη του παρελθόντος, τα λάθη που κάναμε με τις προηγούμενες τεχνολογίες», προσθέτει ο καθηγητής Επικοινωνίας και ΜΜΕ του LSE.

Υστερα από συναντήσεις με εμπειρογνώμονες από κορυφαίους ειδησεογραφικούς οργανισμούς, όπως οι New York Times, το Bloomberg, το BBC, το Quartz, η Le Monde, η Morning Post της Νότιας Κίνας, το Spiegel Online, το Associated Press κ.ά., η ομάδα του κ. Μπέκετ διαπίστωσε ότι –όπως και σε κάθε αρχή υιοθέτησης μιας νέας τεχνολογίας– εντός των ειδησεογραφικών γραφείων υπάρχουν άνθρωποι ειδικοί, που καταλαβαίνουν την τεχνολογία και δεν τη φοβούνται. Ωστόσο φαίνεται πως παράλληλα ενυπάρχει μια αίσθηση «πολιτιστικής εχθρότητας» λόγω του γνωσιακού κενού. Η λύση, σύμφωνα με τον καθηγητή, είναι η εκμάθηση και η εξοικείωση των δημοσιογράφων με τα νέα αυτά συστήματα, με τους αλγόριθμους, αλλά και η ανάπτυξη στρατηγικής για το πού και υπό ποιες συνθήκες θα πρέπει να επενδύσουμε στην εφαρμογή της τεχνητής νοημοσύνης. Κατά τον κ. Μπέκετ, η ΑΙ μπορεί να ωφελήσει σημαντικά τη δημοσιογραφία.

Σε πρόσφατη μελέτη του, το Ινστιτούτο Reuters του Πανεπιστημίου της Οξφόρδης διαπίστωσε ότι το 59% της ειδησεογραφικής βιομηχανίας χρησιμοποιεί ήδη τα εργαλεία της τεχνητής νοημοσύνης για να βελτιώσει το περιεχόμενό της, ενώ το 35% χρησιμοποιεί AI για να βοηθήσει τους δημοσιογράφους να βρουν ιστορίες, αλλά και να τις «τσεκάρουν» αποφεύγοντας την αναπαραγωγή ψευδών ειδήσεων. «Τα Panama Papers είναι ένα λαμπρό παράδειγμα εφαρμογής της ΑΙ στην ερευνητική δημοσιογραφία», επισημαίνει ο κ. Μπέκετ. Η μηχανική μάθηση από την άλλη μπορεί να φανεί χρήσιμη εντός των ειδησεογραφικών γραφείων με πιο απλούς τρόπους, όπως για την ταχύτερη απομαγνητοφώνηση ή και μετάφραση κειμένων. Ωστόσο, ως πιο σημαντική συνεισφορά αναγνωρίζεται η επίδραση στην αναδιανομή περιεχομένου μέσω της χρήσης δεδομένων, τα οποία «θα μας βοηθήσουν τόσο να καταλαβαίνουμε καλύτερα τι ενδιαφέρει το κοινό, αλλά και να του δίνουμε τελικά την πληροφορία που θέλει και στη μορφή που θέλει να την καταναλώσει». Εξάλλου, η μεγαλύτερη πρόκληση στη δημοσιογραφία είναι ότι «υπάρχει πολλή εκεί έξω» και είναι ίδια, εξηγεί ο κ. Μπέκετ. «Χιλιάδες άρθρα για το ίδιο θέμα, πολλή “άχρηστη” πληροφορία που οδηγεί τους αναγνώστες σε απόγνωση στον αγώνα της αναζήτησης της μιας πληροφορίας που τους ενδιαφέρει. Το κατά πόσον βέβαια η τεχνητή νοημοσύνη θα βοηθήσει τους δημοσιογράφους να αντιμετωπίσουν αυτή την πρόκληση έγκειται στους ίδιους. Στο τέλος, η τεχνητή νοημοσύνη είναι απλώς ένα εργαλείο».

Ο μύθος

Ο κυρίαρχος μύθος γύρω από την τεχνητή νοημοσύνη είναι ότι τα ρομπότ θα αντικαταστήσουν τον άνθρωπο. «Είναι σημαντικό να σημειωθεί ότι όλες αυτές οι εφαρμογές δεν επιδιώκουν να αντικαταστήσουν τον άνθρωπο, τον δημοσιογράφο αλλά να λειτουργήσουν συμπληρωματικά και ως εκ τούτου πιο αποτελεσματικά. Δεν μπορούν, όμως, να λειτουργήσουν ακόμη χωρίς το ανθρώπινο μυαλό», διευκρινίζει ο διευθυντής του POLIS. «Υπάρχουν ειδήσεις, όπως ο καιρός ή τα αποτελέσματα ποδοσφαιρικών αγώνων, που μπορεί να παραχθούν μέσω αυτοματοποίησης, ωστόσο ακόμη και εκεί η ανθρώπινη εμπλοκή είναι αναγκαία, καθώς πρέπει να κατασκευάσει και να ρυθμίσει τον αλγόριθμο προς αποφυγήν λαθών ή ακόμη και αποκλεισμού πληροφοριών που οδηγεί σε αναπαραγωγή μεροληπτικών ειδήσεων», εξηγεί ο κ. Μπέκετ. Υπό αυτή την έννοια, η τεχνητή νοημοσύνη σίγουρα δεν αποκλείει την ανθρώπινη παρέμβαση, αντίθετα δημιουργεί ευκαιρίες για νέες θέσεις εργασίας, ενώ παράλληλα μπορεί να απελευθερώσει τους δημοσιογράφους να κάνουν πράγματα, στα οποία εκ των πραγμάτων είναι καλύτεροι, όπως η έρευνα ή οι συνεντεύξεις που απαιτούν ανεπτυγμένη ενσυναίσθηση.

Τα κρίσιμα ερωτήματα

Πέρα από τις καλές πρακτικές της ΑΙ, στην ειδησεογραφία ανακύπτουν ζητήματα διαφάνειας και ερωτήματα ηθικής και ελέγχου. «Τι λες, όμως, στους αναγνώστες σου; Αυτό το έγραψε αλγόριθμος;» διερωτάται ο κ. Μπέκετ και προσθέτει ότι καθώς η παραγωγή είδησης που προκύπτει από τον αλγόριθμο είναι βάσει των δεδομένων που έχει στη διάθεσή του, η μεροληπτική διατύπωση είναι μάλλον μονόδρομος χωρίς την παρέμβαση του «ανθρώπινου μυαλού». Παράλληλα, το ζήτημα ιδιοκτησίας φαίνεται να προβληματίζει ιδιαίτερα τους επαγγελματίες του χώρου, οι οποίοι αναγνωρίζουν ότι τεχνολογικές εταιρείες, όπως Google, Facebook, Amazon και Microsoft, δεν κατέχουν απλά αυτή την τεχνολογία αλλά την αναπτύσσουν, όχι πάντα για λογαριασμό των δημοσιογράφων, με αποτέλεσμα να ελέγχουν την πληροφορία. Πρόκειται για κάτι που το βλέπουμε ήδη στις μηχανές αναζήτησης, αλλά και στην εξατομίκευση της πληροφορίας στο Facebook. Το ερώτημα, λοιπόν, που τίθεται είναι: Αν πρόκειται να βασιζόμαστε σε αυτούς τους αλγόριθμους, σε ποιο βαθμό μπορούμε να τους ελέγξουμε;

PEEGEE 08/19

Posted in Computers and Internet | Tagged , , , | Leave a comment

graphene and blockchains another peculiar combination of terms for no one getting what is going on apart from the unknown individuals

Graphene Block Propagation Technology Claims to be 10X More Efficient

Brian Levine, UMass Amherst.

The bitcoin community is excited about a new technology called Graphene, a new block propagation technology that utilizes set reconciliation. The protocol was introduced by one of Graphene’s creators, Brian Levine, from UMass Amherst at the Scaling Bitcoin 2017 event at Stanford. The project is a joint effort at UMass between Levine, Pinar Ozisik, George Bissias, Amir Houmansadr, and the well-known bitcoin developer Gavin Andresen. The creators of Graphene believe the protocol is more efficient than other methods of announcing and propagating new blocks like Compact Blocks, and Xtreme Thinblocks. Levine details at the Stanford scaling conference that the project is currently being trialed using a Python testnet.   

“Graphene blocks are a fraction of the size of related methods, such as Compact Blocks and Xtreme Thinblocks — For example, we show that a 17.5 KB Xtreme Thinblock can be encoded in 10 KB with Compact Blocks, and encoded in 2.6 KB with Graphene,” explains the Graphene white paper.  

In simulations, we find that Graphene encodes information in about 10% of the space of Compact Blocks. We use a novel interactive combination of Bloom filters and Invertible bloom lookup tables (IBLTs), providing an efficient solution to the problem of set reconciliation in Bitcoin’s p2p network.

Graphene Block Propagation Technology Claims to be 10X More Efficient

Graphene performance according to Brian Levine’s slide-show at the Scaling Bitcoin event at Stanford University.

Utilizing Bloom Filters and IBLTs to Fit Into One IP Packet

Levine describes how bloom filters are already used in the bitcoin ecosystem to reduce bandwidth consumption. Presently, Simplified Payment Verification (SPV) wallets utilize bloom filter technology which is basically a space-efficient probabilistic data arrangement. Levine says IBLTs are a bit more complicated than bloom filters but are also set reconciliation data structures as well. Due to the combination of both of these methods, Graphene doesn’t send a list of transaction IDs, but carries a small bloom filter and IBLT at 1/10 of current block propagation protocols used today.         

“So a 1-megabyte block it has 4000 transactions in it.,” Levine details explaining how Graphene could exceed alternative propagation techniques. “Compact blocks was doing something like 20 kb — But the graphene solution is doing really well, the only disadvantage is that the size increases with the size of the mempool but I have a mempool with 100k transactions, and it’s not growing that fast at all. If I expand this to larger blocks, you can see that the same scaling properties hold — It’s really 1/10th —If the mempools go up beyond that, it won’t grow much faster.”

Graphene fits in one IP packet. Compact blocks do not. There is no increased time. There’s no significant use of storage or CPU.

Criticism from Bitcoin Core Developer Gregory Maxwell

Cryptocurrency proponents seem pretty enthusiastic about the testing, and some bitcoin cash (BCH) supporters hope the technology will be implemented into the BCH network. The Graphene block propagation topic was discussed in great detail in the Reddit forum /r/bitcoin as well. On that forum, the Blockstream co-founder and bitcoin developer, Gregory Maxwell, said he read about the Graphene project a few months ago and had commented on the subject.     

“Might have been good work if it got good advice about system requirements; but it seems it didn’t,” Maxwell explains. “It has two main parts; a block relay scheme and a restructuring of the p2p network — What a lot of people miss about this and compact blocks and whatnot, is that they at most save the system from sending transaction data twice — once at block time, once earlier.”

So people going on saying that this allows 10x larger blocks or whatever are just confused — it doesn’t allow 10x larger blocks any more than compact blocks allowed 50x larger blocks.

Despite Maxwell’s opinion, bitcoiners from both sides of the debate and both forums are showing a lot of interest in this technology being worked on at the College of Information and Computer Sciences department at UMass. Check out the video below to see Brian Levine’s discussion about the new Graphene technology concept being tested.


Posted in Computers and Internet | Tagged , | Leave a comment

ΔΙΚΤΥΑ ΥΠΟΛΟΓΙΣΤΗΡΩΝ- Στρώμα ζεύξης δεδομένων(Z)

(ΣΥΝΕΧΕΙΑ ΑΠΟ 19/07/18)

Ζεύξεις με μεταγωγή

Μερικές τεχνολογίες (ζεύξης δεδομένων) επιτρέπουν τη δημιουργία πλήρων δικτύων – με δικές τους διευθύνσεις, τεχνικές δρομολόγησης και μηχανισμούς προώθησης z Αυτά τα δίκτυα αποκαλούνται δίκτυα μεταγωγής (switched networks)

Έλεγχος ζεύξης σημείου προς σημείο

ένας πομπός, ένας δέκτης, μία ζεύξη

– ευκολότερος έλεγχος από εκείνον της ζεύξης εκπομπής

– δεν υπάρχει MAC

– δεν υπάρχει ανάγκη για διευθύνσεις όπως στο MAC

– π.χ., ζεύξη dialup, γραμμή ISDN

γνωστά πρωτόκολλα ελέγχου ζεύξης σημείου προς σημείο:

– HDLC: High level Data Link Control

– SLIP: Serial Line IP – PPP : Point-to-Point Protocol

HDLC: High level Data Link Control

Χρησιμοποιείται ευρέως και είναι προτυποποιημένο από παλιά (1979)

– Αποτελεί τη συνήθη επιλογή για τις σειριακές γραμμές στους δρομολογητές της Cisco

– Το PPP είναι μια απλοποιημένη παραλλαγή του

•Οικογένεια πρωτοκόλλων HDLC

• Synchronous Data Link Control (SDLC): IBM

• High-Level Data Link Control (HDLC): ISO • Link Access Procedure-Balanced (LAPB): X.25

• Link Access Procedure for the D channel (LAPD): ISDN

•Όλα τα πρωτόκολλα βασίζονται στις ίδιες αρχές

• Είναι τύπου συρμού bit

• Χρησιμοποιούν παραγέμισμα bit (bit stuffing)

HDLC: Τύποι σταθμών


• Ελέγχουν τη λειτουργία της ζεύξης

• Τα πλαίσια που στέλνουν αποκαλούνται εντολές (commands)

• ∆ιατηρούν λογικές ζεύξεις με τους δευτερεύοντες σταθμούς


• Ελέγχονται από τον πρωτεύοντα

• Τα πλαίσια που στέλνουν αποκαλούνται απαντήσεις (responses)


HDLC: ∆ιατάξεις ζεύξης

Ασύμμετρη ζεύξη σημείου προς πολλαπλά σημεία

HDLC: Μορφή πλαισίου

HDLC: Είδη πλαισίων

Υπάρχουν 3 είδη πλαισίων. ∆ιακρίνονται από το πεδίο “control”

HDLC: Πλαίσια επίβλεψης

HDLC: Αναρίθμητα πλαίσια

. Χρησιμοποιούνται για λειτουργίες ελέγχου αλλά μπορεί να χρησιμοποιηθούν και για τη μεταφορά δεδομένων, όταν ζητηθεί υπηρεσία χωρίς σύνδεση

. ∆εν έχουν αύξοντες αριθμούς και δεν αλλάζουν την αρίθμηση των πλαισίων πληροφορίας

. Μπορεί να είναι εντολές και απαντήσεις για: – τον τρόπο επικοινωνίας – μετάδοση πληροφορίας – αποκατάσταση – άλλες λειτουργίες

Αναρίθμητες εντολές

– SNRM: Set Normal Response Mode

– SABM: Set Asynchronous Balanced Mode

– SARM: Set Asynchronous Response Mode

– UI: Unnumbered Information

– RSET: Reset

– DISC: Disconnect

Αναρίθμητες απαντήσεις

– UA: Unnumbered Acknowledgment

– FRMR: Frame Reject

– DM: Disconnect Mode



ΠΗΓΗ m04

Posted in Computers and Internet | Tagged , , , , , , | Leave a comment


Governance Principles for the New Generation Artificial Intelligence–Developing Responsible Artificial Intelligence

Responsible Artificial Intelligence

National Governance Committee for the New Generation Artificial Intelligence

The global development of Artificial Intelligence (AI) has reached a new stage, with features such as cross-disciplinary integration, human-machine coordination, open and collective intelligence, and etc., which are profoundly changing our daily lives and the future of humanity. In order to promote the healthy development of the new generation of AI, better balance between development and governance, ensure the safety, reliability and controllability of AI, support the economic, social, and environmental pillars of the UN sustainable development goals, and to jointly build a human community with a shared future, all stakeholders concerned with AI development should observe the following principles:

1. Harmony and Human-friendly

The goal of AI development should be to promote the well-being of humankind. It should conform to human values and ethical principles, promote human-machine harmony, and serve the progress of human civilization. The development of AI should be based on the premise of ensuring social security and respecting human rights, and should prevent misuse, abuse and evil use of AI technology by all means.

2. Fairness and Justice

The development of AI should promote fairness and justice, protect the rights and interests of all stakeholders, and promote equal opportunities. Through technology advancement and management improvement, prejudices and discriminations should be eliminated as much as possible in the process of data acquisition, algorithm design, technology development, and product development and application.

3. Inclusion and Sharing

AI should promote green development to meet the requirements of environmental friendliness and resource conservation; AI should promote coordinated development by promoting the transformation and upgrading of all industries, and by narrowing regional disparities; AI should promote inclusive development through better education and training, support to the vulnerable groups to adapt, and efforts to eliminate digital divide; AI should promote shared development by avoiding data and platform monopolies, and promoting open and fair competition.

4. Respect for Privacy

AI development should respect and protect the privacy of individuals and fully protect an individual’s rights to know and to choose. Boundaries and rules should be established for the collection, storage, processing and use of personal information. Personal privacy authorization and revocation mechanisms should be established and updated. Stealing, juggling, leaking and other forms of illegal collection and use of personal information should be strictly prohibited.

5. Safety and Controllability

The transparency, interpretability, reliability, and controllability of AI systems should be improved continuously to make the systems more traceable, trustworthy, and easier to audit and monitor. AI safety at different levels of the systems should be ensured, AI robustness and anti-interference performance should be improved, and AI safety assessment and control capacities should be developed.

6. Shared Responsibility

AI developers, users and other related stakeholders should have a high sense of social responsibility and self-discipline, and should strictly abide by laws, regulations, ethical principles, technical standards and social norms. AI accountability mechanisms should be established to clarify the responsibilities of researchers, developers, users, and relevant parties. Users of AI products and services and other stakeholders should be informed of the potential risks and impacts in advance. Using AI for illegal activities should be strictly prohibited.

7. Open and Collaboration

Cross-disciplinary and cross-boundary exchanges and cooperation should be encouraged in the development of AI. Coordinated interactions should be fostered among international organizations, government agencies, research institutions, educational institutions, industries, social organizations and the general public in the development and governance of AI. With full respect for the principles and practices of AI development in various countries, international dialogues and cooperation should be encouraged to promote the formation of an international AI governance framework with broad consensus.

8. Agile Governance

The governance of AI should respect the underlying principles of AI development. In promoting the innovative and healthy development of AI, high vigilance should be maintained in order to detect and resolve possible problems in a timely manner. The governance of AI should be adaptive and inclusive, constantly upgrading the intelligence level of the technologies, optimizing management mechanisms, and engaging with muti-stakeholders to improve the governance institutions. The governance principles should be promoted throughout the entire lifecycle of AI products and services. Continuous research and foresight for the potential risks of higher level of AI in the future are required to ensure that AI will always be beneficial for human society.


Posted in Computers and Internet | Tagged , , , | Leave a comment


(ΣΥΝΕΧΕΙΑ ΑΠΟ 27/08/2018)

1.3.3 Τα συστήματα κοινής χρήσης αρχείων τρίτης και τέταρτης γενιάς

Ως γνωστόν πολλοί θέλουν το κλείσιμο των P2P δικτύων, έτσι προσπαθούν με μηνύσεις να μας φοβίσουν, αλλά έρχεται και μια ακόμα λύση επί αυτού του θέματος. Η 3η γενιά! Η τρίτης γενιάς είναι παρόμοια με την δεύτερη μόνο που εισαγάγει την έννοια της ανωνυμίας (anonymity). Ένας βαθμός ανωνυμίας δημιουργείται με το να δρομολογείται ή κίνηση μας μέσω κόμβων άλλων χρηστών πράγμα που κάνει δύσκολο για κάποιον να προσδιορίσει ποιος κατεβάζει και ποιος προσφέρει αρχεία στο δίκτυο. Επιπρόσθετα τα περισσότερα δίκτυα διαθέτουν μηχανισμούς κωδικοποίησης του ανταλλασσόμενου περιεχομένου, ενώ σε πολλές περιπτώσεις η ανωνυμία των προσωπικών υπολογιστών επιτυγχάνεται με την απόδοση εικονικών διευθύνσεων IP στους χρήστες από τα δίκτυα P2P. Αποτέλεσμα της επιβάρυνσης των ‘’ανώνυμων” δικτύων με επιπρόσθετες λειτουργίες που συχνά επιβαρύνουν και καθυστερούν το σύστημα, αποτέλεσε η περιορισμένη χρήση των δικτύων τρίτης γενιάς για διαμοιρασμό αντικειμένων.

Χαρακτηριστικά παραδείγματα αποτελούν τα WASTE, JetiANts, Tor και Ι2Ρ. Τα περισσότερα των προγραμμάτων αυτών έχουν δυνατή κρυπτογράφηση και προστασία από traffic sniffing (υποκλοπή κίνησης πακέτων). Επίσης ένας ακόμα τύπος ομότιμων δικτύων τρίτης γενιάς που εμφανίστηκε είναι αυτός του φίλου προς φίλο (Friend to Friend) επικοινωνίας. Αυτό το μοντέλο επιτρέπει απευθείας σύνδεση για την προώθηση αρχείων αιτήσεων των κόμβων των οποίων οι χρήστες γνωρίζονται μεταξύ τους και την επιτρέπουν ο ένας στον άλλο. Παραδείγματα ‘’ανώνυμων” δικτύων αποτελούν τα ANts P2P, RShare, Freenet, Ι2Ρ, GNUnet και Entropy .

Πέρα από την παραδοσιακή λειτουργία της ανταλλαγής αρχείων υπάρχουν σήμερα υπηρεσίας που στέλνουν ροές δεδομένων αντί για αρχεία εντός ενός ομότιμου δικτύου. Έτσι μπορεί κάποιος να ακούσει ράδιο ή να δει τηλεόραση χωρίς κάποιον εξυπηρετητή να παρεμβάλλεται. Ένα δημοφιλές παράδειγμα τέτοιου δικτύου είναι το ( όπου κανείς μπορεί να δει online αθλητικά γεγονότα, ταινίες, διάφορες τηλεοπτικές εκπομπές καθώς και να δημιουργήσει το δικό του προσωπικό κανάλι στο οποίο μπορούν να συνδεθούν και να παρακολουθούσουν άλλοι χρήστες.

Κεφάλαιο 2 ο

2 Αρχιτεκτονικές P2P δικτύων

Τα συστήματα P2P όπως όλα τα δίκτυα έχουν συγκεκριμένες τοπολογίες και αρχιτεκτονικές. Οι κόμβοι που μετέχουν σε ένα P2P σύστημα σχηματίζουν ένα δίκτυο επικάλυψης (overlay network) πάνω από την υπάρχουσα υποδομή του διαδικτύου. Διασυνδέονται, επικοινωνούν και ανταλλάσσουν πληροφορίες μεταξύ τους σε τοπολογίες ανεξάρτητα από το δίκτυο υποδομής (IP network) διατηρώντας την αυτονομία τους. Η αρχιτεκτονική του δικτύου επηρεάζει τον μηχανισμό δρομολόγησης μηνυμάτων αναζήτησης, την απόδοση, την ικανότητα κλιμάκωσης, την προσαρμοστικότητα ανοχή σε σφάλματα, κλπ. και στοχεύει στην υποστήριξη λειτουργιών όπως διαμοιρασμό αρχείων (file sharing), κατανεμημένο υπολογισμό (distributed computing), επικοινωνία – συνεργασία μεταξύ των χρηστών (collaboration network). Υπάρχουν διάφορες αρχιτεκτονικές για τον σχηματισμό του overlay δικτύου :

2.1 Κεντρικοποιημένη P2P Αρχιτεκτονική (Centralized P2P)

Στην κεντρικοποιημένη αρχιτεκτονική οι υπολογιστές- κόμβοι συνδέονται μεταξύ τους αλλά και με έναν κεντρικό εξυπηρετητή (server). Ο κεντρικός αυτός server είναι και ο αποκλειστικός υπεύθυνος για τον συντονισμό των συμμετεχόντων στο σύστημα χρηστών και για την διατήρηση ενός δείκτη για κάθε διαθέσιμο προς διαμοιρασμό αρχείο. Όταν ένας χρήστης εκκινεί την εφαρμογή κοινής χρήσης αρχείων P2P, η εφαρμογή έρχεται σε επαφή με τον εξυπηρετητή καταλόγου. Ειδικά, η εφαρμογή που εκτελείται στον ομότιμο πληροφορεί τον εξυπηρετητή καταλόγου για την διεύθυνσή IP της και για τα αντικείμενα στον τοπικό της δίσκο, τα οποία κάνει διαθέσιμα για κοινή χρήση (π.χ. τους τίτλους όλων των αποθηκευμένων αρχείων MP3). Με αυτόν τον τρόπο, ο εξυπηρετητής καταλόγου ξέρει ποια αντικείμενα έχει διαθέσιμα για κοινή χρήση ο ομότιμος υπολογιστής.

Ο εξυπηρετητής καταλόγου συλλέγει αυτές τις πληροφορίες από κάθε ενεργό ομότιμο, και έτσι δημιουργεί μια 6 κεντρικοποιημένη δυναμική βάση δεδομένων, που αντιστοιχίζει κάθε όνομα αντικειμένου σε ένα σύνολο διευθύνσεων ΙΡ. Όταν ένας ενεργός ομότιμος πάρει ένα νέο αντικείμενο ή αφαιρέσει ένα αντικείμενο, πληροφορεί τον εξυπηρετητή καταλόγου, έτσι ώστε αυτός με την σειρά του να ενημερώσει την βάση δεδομένων του για την εν λόγω ενέργεια. Για να ανιχνεύσει ένα αρχείο, ο ομότιμος στέλνει μια αίτηση στον κεντρικό εξυπηρετητή, ο οποίος πραγματοποιεί μια αναζήτηση στην κεντρικοποιημένη βάση δεδομένων του και εντέλει αποκρίνεται με μια λίστα των χρηστών που διαθέτουν το επιθυμητό αρχείο.

Για να παραμένει η βάση δεδομένων του ενημερωμένη, ο εξυπηρετητής καταλόγου πρέπει να είναι σε θέση να καθορίσει πότε αποσυνδέεται ένας ομότιμος. Ένας ομότιμος μπορεί να αποσυνδεθεί κλείνοντας την εφαρμογή πελάτη Ρ2Ρ ή απλώς αποσυνδεόμενος από το διαδίκτυο. Ένας τρόπος παρακολούθησης του ποιοι ομότιμοι παραμένουν συνδεδεμένοι είναι να στέλνονται περιοδικά μηνύματα προς ομότιμους, για να διαπιστώσει ο εξυπηρετητής αν αποκρίνονται. Ένας άλλος τρόπος παρακολούθησης από τον εξυπηρετητή των συνδεδεμένων ομότιμων είναι η διατήρηση μιας μόνιμης TCP σύνδεσης μεταξύ του εξυπηρετητή και του κάθε συνδεδεμένου ομότιμου.

Αν η TCP σύνδεση κλείσει, τότε ο ομότιμος έχει αποσυνδεθεί και ο εξυπηρετητής καταλόγου αφαιρεί τα ονόματα αντικειμένων και τις αντίστοιχες διευθύνσεις IP του ομότιμου από την βάση δεδομένων του. Αυτή η αρχιτεκτονική είχε χρησιμοποιηθεί από το Napster. Τέτοια συστήματα είναι απλά και λειτουργούν γρήγορα και αποτελεσματικά για την εύρεση πληροφοριών. Οι αναζητήσεις είναι περιεκτικές και μπορούν να παρέχουν την εγγύηση στις αναζητήσεις. Το βασικότερο πλεονέκτημα της χρήσης κεντρικοποιημένου καταλόγου είναι η απλότητα της συγκεκριμένης αρχιτεκτονικής. Υπάρχουν όμως και αρκετά μειονεκτήματα, τα βασικότερα εκαιτων οποίων είναι:

• Ένα μόνο σημείο αποτυχίας: Αν ο κεντρικός εξυπηρετητής καταλόγου καταρρεύσει για οποιονδήποτε λόγο τότε καταρρέει μαζί του όλη η εφαρμογή P2P. Ακόμη και αν χρησιμοποιείται μια φάρμα εξυπηρετητών με πλεονάζοντες εξυπηρετητές, οι συνδέσεις διαδικτύου προς την φάρμα μπορούν να αποτύχουν, κάνοντας όλη την εφαρμογή να καταρρεύσει.

• Συμφόρηση απόδοσης: Σε ένα μεγάλο σύστημα Peer to Peer, με εκατοντάδες χιλιάδες συνδεδεμένων χρηστών, ένας κεντρικοποιημένος εξυπηρετητής πρέπει να διατηρεί μια τεράστια βάση δεδομένων καθώς και να αποκρίνεται σε χιλιάδες ερωτήματα ανά δευτερόλεπτο. Πράγματι το έτος 2000, όταν ήταν ακόμα η δημοφιλέστερη εφαρμογή Peer to Peer, το Napster βασανιζόταν από προβλήματα κίνησης στον κεντρικοποιημένο του εξυπηρετητή.

• Παραβίαση ρευματικών δικαιωμάτων: Η παγκόσμια βιομηχανία παραγωγής δίσκων προβληματίζεται έντονα από το γεγονός ότι τα συστήματα κοινής χρήσης αρχείων P2P επιτρέπουν σε χρήστες να λαμβάνουν δωρεάν περιεχόμενο που καλύπτεται από πνευματικά δικαιώματα. Όταν μια εταιρεία P2P έχει έναν κεντρικοποιημένο εξυπηρετητή καταλόγου, νομικά προβλήματα μπορούν να αναγκάσουν την εταιρεία να τον απενεργοποιήσει. Σαφώς, είναι πιο δύσκολο να κλείσουν οι περισσότερο αποκεντρωμένες αρχιτεκτονικά εφαρμογές.

2.2 Ιεραρχική P2P Αρχιτεκτονική Οι κομβόι οργανώνονται σε ιεραρχική δομή όπως γίνεται με τους DNS στο διαδίκτυο. Στα ιεραρχικά P2P συστήματα εισάγεται ή έννοια των “super-peers” (FastTrack),δηλαδή, οι ομότιμοι κόμβοι χωρίζονται σε δύο κατηγορίες, στους υπερκόμβος (super-peers) και στους πελάτες (clients). Η δομή τους μπορεί να είναι κεντρικοποιημένη ή μη.



4 Φώτης I. Γώγουλος,” Μελέτη και προσομοίωση αλγορίθμων αναζήτησης, μεταφοράς και διαφοροποίησης χρηστών σε εφαρμογές κοινής χρήσης αρχείων”. 2007.

5. Μαργαρίτη, “Data Management in P eer’to’P eer Systems”, Technical report, Π ανεπιστήμιο Ιωαννίνων, 2005

6 Φώτης I. Γώγουλος,” Μελέτη και προσομοίωση αλγορίθμων αναζήτησης, μεταφοράς και διαφοροποίησης χρηστών σε εφαρμογές κοινής χρήσης αρχείων”. 2007.

7.Φώτης I. Γώγουλος,” Μελέτη και προσομοίωση αλγορίθμων αναζήτησης, μεταφοράς και διαφοροποίησης χρηστών σε εφαρμογές κοινής χρήσης αρχείων”. 2007.

ΠΗΓΗ      2011

Posted in Computers and Internet | Tagged , , , , , , | Leave a comment


Brains on a chip: neuromorphic computing

Today’s AI uses the brain as inspiration for software that runs on traditional computers (or supercomputers). But scientists are working on another option to model the brain’s hardware by building a neural network on a microchip. 

Called neuromorphic computing (‘in the form of a nervous system’), in theory, the chips offer a completely different and more energy-efficient way to build a computer.

Traditional computers are power-hungry because information is shuttled back and forth between the central processing unit (CPU) and the memory storage.

In neuromorphic chips, units process and store information as an integrated part of the same operation, just like neurons do via synapses (the connection points between neurons). And the strength of those connections can grow or fade, as they do in our brains.

This would let neuromorphic chips undertake parallel processing, similar to the brain, and would make some computing tasks like image processing (e.g. detecting cats) much faster and less energy intensive, by about 1000-fold.

For pure calculation, though, a normal computer would still outperform a neuromorphic chip – just like it outperforms a brain. 

As it is, neuromorphic chips aren’t so useful…yet.

“Just because we know how to build hardware that simulates brain components doesn’t mean we know how to make use of it,” says Dr Peter Stratton, a computer scientist working at the Queensland Brain Institute. 

“That’s because we don’t really know how the brain uses its own hardware! Until we understand more about how a brain computes things, the full potential of neuromorphic chips isn’t likely to be realised.” 

The ethics of neuroscience and AI

Neuroscience is merging with technology in ways that will have a huge impact on society. This won’t be limited to improvements in just health or brain function. There will also be profound ethical challenges and possibly even a redefinition of what it means to be human.

So, what are some of the ethical issues created by merging machines with our brains—the organs that define us as humans and as individuals?


Can AI be biased? Algorithms programmed for AI are coded in a very logical way, with data fed into them and clear outcomes defined. The primary role of AI is to find patterns in huge data sets, so it would appear that they are impartial machines. 

But the rules they operate by are encoded into the programs, and the data fed to them come from humans, who are not without flaws and biases. AI then, reflects the biases of their human creators.

In the US, for example, an AI-powered ‘judge’ predicted that the likelihood of criminal re-offence was significantly higher among African-Americans compared to Caucasian defendants.

And yet when both groups were tracked for the following two years, the rates of re-offence were the same; African-American defendants had been wrongly stereotyped as more likely to commit a future offence. AI researchers are becoming more aware of the bias problem and are working to overcome it.

IBM says more than 180 different human biases have been defined and it is working to address them in AI programs. 

Identity and responsibility

Today, we are the ‘agents’ of our own actions – meaning we are in control. But technologies that alter our brain activity have the potential to blur that line.

For example, what is someone’s responsibility if they commit an out-of-character crime while being stimulated by such a device? Would the answers be any different for somebody on antidepressants or other medications, which also affect brain activity?

Identity could be another issue with devices that can change our patterns of brain activity. One anecdotal report described a patient with a brain stimulation device who sometimes wondered “who he was”.

Reports like this are extremely rare (and a loss of identity isn’t rare for people with brain degeneration, suggesting an alternative explanation for his feelings); nevertheless, they remind us that changing our brain activity can, at least in theory, change our sense of self. 

Taking the pulse of the public can help guide ethically fraught research. For example, one survey of students found that people generally don’t like the idea of altering their personality traits.

They were willing to improve cognitive abilities such as attention, alertness and memorisation, but empathy and kindness were off limits—perhaps because they shape a person’s emotions, identity and sense of self.

In raising these issues, the point isn’t to question the value of brain stimulation devices as medical therapies—they’ve proven themselves as safe, effective treatments, and patients are delighted to have their quality of life restored.

The point is that as the technology progresses, we need to make sure that the legal and ethical guidelines keep pace. 

Brain enhancement

Enhancing brain function is certain to be one goal of future research, and the military may be the best example of who might want this. The United States defence research program DARPA is already investing heavily in brain-computer interfaces that could one day boost combat readiness, performance and recovery of military personnel.

But is cognitive enhancement something we should allow? The truth is some people already take steps to achieve it; ‘smart’ drugs like Ritalin and modafinil can help focus and extend attention; Prozac alters mood to ward off depression and anxiety. 

The prospect of cognitive enhancement raises issues of equality and fairness—who should have access to these enhancements, and would they be limited to those who can afford it? Would a high score on a test be fair with the use of brain enhancement? Similar issues regarding performance-enhancing drugs are confronted in professional sports.

The definition of human

Some modern robots are being made to look decidedly human, but how much should we treat them as human? In October 2017 Sophia, a social robot capable of more than 50 facial expressions, was made a citizen of Saudi Arabia, to the concern of many experts across the world. 

A recent study also found that people subconsciously treated robots in a very human way. “Please do not switch me off!” pleaded a robot, causing almost 30% of people to comply, even though researchers had requested them to switch off the robot. 


Today’s biggest technology companies collect huge amounts of personal information because they can sell it for commercial gain. This means that if or when your brain activity can be recorded with a wearable EEG headset, companies would find huge value in accessing your brain-based information. 

Imagine, in the future, if you merely thought about buying a new Smart TV while wearing an EEG headset, and that information was relayed to a big online retailer.

The retailer could use AI programs to automatically contact you with their latest specials on Smart TVs. You wouldn’t even have to act on your thoughts by typing it into a search engine; your head-mounted device would record the activity pattern caused by thinking ‘Smart TV’, and commercial operators could act. 

There are huge privacy concerns around who would or should have access to your brain activity. For example, what if a health insurance company wanted to buy your brain activity, which could indicate if you had a mental health disorder? 

These are important issues to consider as technology improves and brain data becomes more readily available.


The goal of robot researchers is to build robots with general intelligence (run by AI), guided by a sense of morality. But whose morals should a robot take? What principles should guide robot decisions? What happens when human input is purposely dishonourable?

For example, less than one day after its release in March 2016 to engage in ‘conversational understanding’ with the general public, Microsoft’s AI-based chatbot Tay became a Hitler-loving racist and conspiracy theorist based on the interactions it had on Twitter. 

Teaching general moral principles to robots and letting them deduce appropriate decisions won’t work all the time either; there will always be exceptions to the rule or ambiguous situations. The other option is to have the robot learn through experience, just as humans do, but perhaps with ethicists guiding it. 

But what moral code should the robot learn? There are many, though these are just some: the Golden Rule (do unto others as you would have them do unto you); utilitarianism (act for the greater good); the categorical imperative (actions bound by moral duty to do what’s right, regardless of outcome). 

Humans still often disagree on what the right moral decisions are even within a single country or culture. 


Posted in Computers and Internet | Tagged , , , , | Leave a comment