Informatik wird zunehmend zur automatisierten Entscheidungsfindung eingesetzt. In diesen Systemen werden jedoch zunehmend Formen von Diskriminierung entdeckt wodurch ein breiter Diskurs zu Fairness nötig wird. Die Einheit umfasst eine kurze Einführung mit anschließender Diskussion mit allen Anwesenden. Es ist kein spezieller Bildungshintergrund erforderlich. Fairness ist poltisch zu verhandeln und als soziales Konstrukt abhängig von kontextuellen Erfahrungen und Perspektiven.
Ein Beispiel zu bereits eingesetzten Systemen ist die Vorhersage von Kriminalität in Regionen in den USA. Es konnte jedoch nachgewiesen werden dass dieses System einen rassistischen Bias hat. Dieser Bias stammt aus historischen Daten der Polizei welche für die lernende Algorithmen (Machine Learning) als Input verwendet wurden. In den letzten Jahren wurden viele solcher Problemfälle bekannt. In Konsequenz entstanden neue Forschungscommunities zu Fairness von algorithmschen Systemen.