Outros
Другой на испанском языке
Других
Publication in Spanish
This is a Spanish publication
Publicação em espanhol
Esta é uma publicação espanhola
Публикация на Испанском языке
Это испанское издание
Vale do Silício precisa de uma nova abordagem para estudar ética agora mais do que nunca
No próximo mês, Apple e Google revelarão recursos para permitir o rastreamento de contatos no iOS e Android para identificar pessoas que tiveram contato com alguém que testa positivo para o novo coronavírus.
Especialistas em segurança têm sido rápidos em apontar os possíveis perigos, incluindo riscos de privacidade, como revelar identidades de usuários covid-19 positivos, ajudar os anunciantes a rastreá-los ou ser vítima de falsos positivos de trolls.
São novas preocupações em debates familiares sobre a ética da tecnologia. Como os tecnólogos devem pensar sobre a troca entre a necessidade imediata de vigilância em saúde pública e a privacidade individual? E má formação e liberdade de expressão? O Facebook e outras plataformas estão desempenhando um papel muito mais ativo do que nunca na avaliação da qualidade da informação: promover fontes oficiais de informação com destaque e remover algumas postagens de usuários que desafiam o distanciamento social.
À medida que a pandemia se espalha e, junto com ela, a corrida para desenvolver novas tecnologias acelera, é mais crítico do que nunca que a tecnologia encontre uma maneira de examinar completamente essas questões. Os tecnólogos de hoje estão mal equipados para este desafio: encontrar equilíbrios saudáveis entre as preocupações concorrentes — como privacidade e segurança — enquanto explicam sua abordagem ao público.
Nos últimos anos, os acadêmicos têm trabalhado para dar aos alunos maneiras de lidar com os dilemas éticos que a tecnologia levanta. No ano passado, Stanford anunciou um novo (e agora popular) curso de graduação sobre "Ética, Políticas Públicas e Mudanças Tecnológicas", ministrado por professores de filosofia, além de ciência política e da computação. Harvard, MIT, UT Austin e outros ensinam cursos semelhantes.
Se os únicos alunos forem futuros tecnólogos, porém, as soluções vão atrasar. Se queremos uma indústria tecnológica mais eticamente experiente hoje, precisamos de estudo ético para profissionais de tecnologia, não apenas estudantes universitários.
Para ampliar esse ensino para os profissionais de tecnologia, nosso fundo de risco, Bloomberg Beta, concordou em hospedar a mesma faculdade de Stanford para um experimento. Com base em seu curso de graduação, poderíamos projetar uma experiência educacional para pessoas idosas que trabalham em todo o setor de tecnologia? Adaptamos o conteúdo (incorporando dilemas do mundo real), estrutura e localização da classe, criando um curso noturno de seis semanas em São Francisco. Uma semana depois de anunciar o curso, recebemos o dobro de inscrições que pudemos acomodar.
Selecionamos um grupo diversificado de alunos de todas as formas que pudemos gerenciar, que todos são responsáveis em tecnologia. Eles nos contaram que quando enfrentaram um dilema ético no trabalho, não tinham uma comunidade para recorrer — alguns confidenciaram a amigos ou familiares, outros revelaram que procuraram respostas na internet. Muitos sentiam medo de falar livremente dentro de suas empresas. Apesar de várias iniciativas de ética lideradas pela empresa, incluindo as que valem a pena nomear diretores de ética e os princípios da Microsoft e da IBM para AI ética, os alunos de nossa classe nos disseram que não tinham espaço para conversas abertas e honestas sobre o comportamento da tecnologia.
Se queremos uma indústria tecnológica mais eticamente experiente hoje, precisamos de estudo ético para profissionais de tecnologia, não apenas estudantes universitários.
Como graduandos, nossos alunos queriam aprender com acadêmicos e líderes do setor. A cada semana destacava-se especialistas como Marietje Schaake, ex-membro do Parlamento Europeu dos Países Baixos, que debatia questões reais, da privacidade de dados à publicidade política. Os professores facilitaram as discussões, incentivando nossos alunos a discutir opiniões múltiplas, muitas vezes opostas, com nossos convidados especializados.
Mais da metade da classe veio de uma formação STEM e perdeu muita educação explícita em quadros éticos. Nossa classe discutiu princípios de outras áreas, como a ética médica, incluindo a máxima orientadora do médico ("primeiro, não faça mal") no contexto da concepção de novos algoritmos. Textos do mundo da ficção científica, como "Aqueles que se afastam de Omelas", de Ursula K. Le Guin, também ofereceram maneiras de lidar com as questões, levando os alunos a avaliar como coletar e usar dados de forma responsável.
As respostas às perguntas baseadas em valores que exploramos (como as trocas entre desinformação e liberdade de expressão) não convergiram em respostas claras "certas" ou "erradas". Em vez disso, os participantes nos disseram que as discussões foram cruciais para o desenvolvimento de habilidades para verificar de forma mais eficaz seus próprios vieses e tomar decisões informadas. Um aluno disse:
Depois de passar por uma série de perguntas, experimentos de pensamento ou tópicos de discussão com os professores, e pensar profundamente sobre cada uma das questões de subalterno, muitas vezes acabei com as posições opostas ao que eu acreditava inicialmente.
Quando o abrigo no local significava que a classe não podia mais se reunir, os participantes entraram em contato dentro de uma semana para solicitar sessões virtuais — desejando um fórum para discutir eventos em tempo real com seus pares em um ambiente estruturado. Após nossa primeira sessão virtual examinando como governo, tecnologia e indivíduos responderam ao COVID-19, um participante comentou: "Parece que há muito mais conversa boa para vir sobre as perguntas, o que podemos fazer, o que devemos fazer, o que devemos fazer?"
Os profissionais de tecnologia parecem querer maneiras de se envolver com o aprendizado ético — a tarefa agora é oferecer mais oportunidades. Planejamos realizar outro curso este ano e estamos procurando maneiras de fornecer uma versão online, publicando os materiais.
O COVID-19 não será a última crise em que contamos com a tecnologia para soluções, e precisamos delas imediatamente. Se queremos discussões mais informadas sobre o comportamento da tecnologia, e queremos que as pessoas que fazem escolhas para entrar nessas crises estejam preparadas para pensar eticamente, precisamos começar a treinar pessoas que trabalham em tecnologia a pensar eticamente.
Para permitir que os alunos explorassem pontos de vista opostos e desconfortáveis e compartilhassem suas experiências pessoais, as discussões em sala de aula eram confidenciais. Recebi permissão explícita para compartilhar qualquer informação dos alunos daqui.
Startup de manufatura Divergente 3D reduz funcionários em um terço
A Divergente, startup com sede em Los Angeles com o objetivo de revolucionar a fabricação de veículos, cortou cerca de um terço de sua equipe em meio à pandemia COVID-19 que tem apoiado startups e grandes corporações.
A empresa, que empregava cerca de 160 pessoas, demitiu 57 trabalhadores, de acordo com documentos apresentados ao Departamento de Desenvolvimento do Emprego da Califórnia. O fundador e CEO Kevin Czinger não forneceu números específicos. No entanto, ele confirmou ao TechCrunch que ele teve que reduzir o pessoal devido à pandemia COVID-19. Uma equipe principal permanece, disse ele.
"Sempre que você está fazendo algo que está afetando o trabalho das pessoas – e especialmente em uma empresa onde eu basicamente recrutei todos e conhecia todos de cara e nome – é obviamente super doloroso fazer isso em qualquer circunstância", disse Czinger em uma entrevista esta semana.
A prioridade número 1 da empresa era garantir a estabilidade financeira a longo prazo e garantir a equipe principal, o desenvolvimento de tecnologia e os programas de clientes, independentemente do cenário, disse Czinger, acrescentando que ainda há uma enorme incerteza em torno do impacto real e da duração da pandemia do COVID-19.
"Trata-se de tornar a empresa o mais totalmente intempestável possível", disse Czinger.
Divergente 3D é essencialmente um fornecedor de Nível 1 para a indústria automotiva e aeroespacial. Mas dificilmente pode ser considerado um fornecedor tradicional. Depois de renunciar ao cargo de CEO da extinta startup de EV Coda Automotive em 2010, Czinger começou a se concentrar em como o processo de fabricação de veículos poderia se tornar mais eficiente e menos desperdício.
Divergente 3D nasceu dessa exploração inicial. A empresa desenvolveu uma plataforma de fabricação aditiva projetada para tornar mais fácil e rápido projetar e construir novos carros a uma fração do custo — tudo isso reduzindo o impacto ambiental que as fábricas tradicionais têm.
A plataforma é um sistema de produção digital de ponta a ponta que usa impressoras 3D de alta velocidade para fazer peças complexas de ligas metálicas. Este sistema produz as estruturas dos veículos, como o full frame, subquadros e estruturas de suspensão que fazem parte da estrutura de desempenho do veículo.
Em seus primeiros anos como empresa, divergente 3D foi talvez mais conhecido por Blade, o primeiro automóvel a usar impressão 3D para formar a carroceria e o chassi. Divergente 3D fez Blade — que estava no circuito de auto show em 2016 — para demonstrar a plataforma tecnológica.
Foi o suficiente para chamar a atenção dos investidores e pelo menos dois OEMs globais como clientes. Divergente não pode nomear os clientes por causa de acordos de não divulgação.
A empresa levantou cerca de US$ 150 milhões de investidores que incluem o fundo de capital de risco Horizons Ventures, a empresa de serviços de engenharia automotiva e aeroespacial Altran Technologies e os apoiadores chineses O Luxe Holdings, um conglomerado de investimento apoiado pelo magnata do investimento imobiliário Li Ka-shing, com sede em Hong Kong, e pela Shanghai Alliance Investment Limited, um braço de investimento do Governo Municipal de Xangai.
O exemplo mais recente da tecnologia divergente é o 21C, um hipercarro revelado em março que foi construído usando a plataforma de fabricação aditiva. O veículo impresso em 3D de alto desempenho foi produzido pela Czinger Veículos. Divergente 3D e Czinger Veículos são subsidiárias totalmente sob a Divergent Technologies.
Czinger disse que a empresa está pronta para navegar na pandemia e, finalmente, sobreviver. Divergente 3D tem dois OEMs globais como clientes. Estruturas como componentes de chassi e subquadros, para as quais a Divergent tem contratos de fornecimento, estão passando por várias etapas de teste e validação, dependendo do programa. Esses programas, que são para veículos de produção em série, estão avançando, disse Czinger.
Haverá atrasos, pois as montadoras atrasaram ou pararam as operações. Czinger espera que até 2021 a empresa possa anunciar que suas estruturas impressas em 3D serão veículos de produção.
O COVID-19 forçou o Airbnb a repensar suas ofertas de produtos; aqui está um pouco do que veio com
O coronavírus dizimou a indústria de viagens, e o Airbnb, a empresa de aluguel de casas que parecia imbatível há pouco tempo, não foi poupado.
Embora as manchetes tenham se concentrado nas medidas que está tomando para estocar dinheiro para compensar suas perdas, nos bastidores, a empresa de quase 12 anos vem redesenhando seus produtos. Isso inclui repensar sua tela inicial e páginas de aterrissagem de aplicativos para refletir um mundo onde estadias de curto prazo estão fora e estadias de longo prazo – inclusive para profissionais médicos que precisam se colocar em quarentena de suas famílias – estão dentro.
Conversamos com o diretor de design do Airbnb, Alex Schleifer, para saber mais sobre o que está mudando nos bastidores e como. Nosso bate-papo foi editado levemente por comprimento e clareza.
TC: A página inicial do Airbnb de repente é muito focada em três coisas — experiências online, estadias mensais e o que você está chamando de "linha de frente", que é uma área para os anfitriões oferecerem moradia para funcionários de saúde e socorristas. Como foi esse processo de design e quanto tempo levou?
AS: Nossa equipe mapeou em menos de três semanas. Havia algumas centenas de funcionários trabalhando no projeto em qualquer momento – pessoas de operações, produtos, localização, design, política, engenharia. É uma operação complexa (aqui); tudo o que precisamos fazer precisa ser feito em 60 idiomas. Por causa da escala de tudo o que fazemos, a ideia é muitas vezes a peça mais fácil.
A dificuldade foi p[sharpened]orque a crise também estava nos impactando. Todo mundo estava trabalhando em casa. Havia perguntas sobre como fazemos cuidados infantis, por exemplo. Mas ainda havia uma energia imensa, inclusive porque tínhamos milhares de anfitriões nos contatando e dizendo: "Queremos ajudar".
TC: Onde exatamente você começa em uma reformulação como esta?
AS: Você define o escopo dele. Você pode colocar um banner em sua página inicial, ou você pode começar a falar com anfitriões e governos para entender que tipo de ajuda eles precisam e se isso é algo que eles querem, então você começa a construir. Parte disso é olhar para o comportamento dos hóspedes em nossa plataforma em tempo real, o que muda a cada dia. Também é uma questão de conversar com outros parceiros de viagem e ver o que eles estão fazendo.
Em última análise, [decided to take]nós sobre uma grande quantidade de imóveis para que os trabalhadores da linha de frente saibam para onde ir. Eles também usam nossa pesquisa principal, mas queremos ter certeza de que eles têm espaço específico para pessoas que querem doar espaço ou apoiar o programa. Tínhamos uma meta de 100.000 casas que seriam fornecidas, mas batemos essa meta mais rápido do que pensávamos.
TC: Esses espaços estão sendo oferecidos sem nenhum custo?
AS: São doados ou oferecidos a preços reduzidos.
TC: Outra nova seção agora gira em torno de "experiências online". Estes são anfitriões que estão oferecendo suas próprias aulas sobre culinária e outras coisas?
AS: Sim, como "Sangria misturando com Pedro", que é um show de mistura de coquetéis com muito entretenimento. O Airbnb tem tudo a ver com conexão — é construído sobre hospedagem. Mas se nem todo mundo é capaz de viajar, a questão se torna: quais são nossas opções aqui? Discutimos muitas ideias, mas a forma como estávamos trabalhando e nos conectando como uma equip[remotely]e e vivendo online com a família tornou essa ideia mais concreta para nós. Então contatamos os anfitriões, fizemos testes com esses hosts com configurações de m[and everything else required]icrofone e lançamos com 50 pessoas. Agora, temos quase 100 anfitriões oferecendo experiências online e milhares mais que se ofereceram para hospedar experiências. Algumas das ofertas mais populares — que não são uma experiência para muitos onde você está assistindo a um show, mas sim uma experiência interativa — já estão esgotadas.
(Acima, página inicial do Airbnb antes das atualizações.)
TC: Você vê isso se tornando uma parte considerável dos negócios do Airbnb daqui para frente?
AS: Tem apenas algumas semanas de idade, mas mesmo para um produto em sua primeira versão, estávamos realmente gostando disso. Ele superou as expectativas, e eu acho que será um grande negócio para nós à medida que sairmos da pandemia porque permite que os anfitriões hospedem experiências on-line e do mundo real.
TC: Tenho certeza que muitas ideias foram rebatidas. Como você está escolhendo o que circular?
AS: Temos sorte de sentar em um monte de dados, mas você só pode testar muito. Você precisa de uma tomada de decisão muito forte e rápida, para que a liderança e a equipe executiva se encontrem diariamente.
A outra coisa que, como designer, eu aprecio é que fizemos questão de remover camadas abstratas de comunicação. Não bastaríamos carregar um doc do Google, mas tornamos real usando[the collaborative interface design tool] a Figma para olhar todos os designs e rapidamente protótipo e compartilhamento de tela, seja com a equipe de experiências ou[CEO] eu ou [Chesky]Brian, para ver o que os clientes veriam e tomardecisões.
TC: Você menciona Figma. Em que outras ferramentas você tem confiado mais fortemente enquanto trabalha em casa?
AS: Gostamos de usar o menor número possível de ferramentas, mas figma é um divisor de águas porque as pessoas podem ver decisões sendo tomadas ao vivo. O Google Docs é muito poderoso para nós. O Slack também nos permite trabalhar assíncronamente, o que é importante. E zoom tem sido fundamental para todos.
TC: As coisas estão mudando a cada dia. Partes do mundo estão se abrindo enquanto outras permanecem fechadas. Como isso está afetando seu trabalho?
AS: Construímos o produto e o site para ser realmente modular e também segmentável por região porque você está certo, o mundo vai se abrir em diferentes horários com diferentes restrições e permutações e queremos ter certeza de que podemos oferecer às pessoas o que está disponível para elas. Em alguns casos, eles podem esta[hampered by]r viajando a uma certa distância, ou as viagens aéreas podem não estar abertas, então queremos ajudar as pessoas a encontrar coisas próximas.
Também estamos construindo outras peças continuamente, algumas em resposta direta à crise, incluindo um hub que comunica aos nossos hóspedes e hospeda o que está acontecendo com as viagens e o que acontece após a tempestade.
Como uma empresa global, estamos muito acostumado[adapting to change]s. Claro, esta é uma escala diferente.
'Deficiências' que quebraram sistema de comentários da FCC em luta contra a neutralidade da rede detalhada pelo GAO
Hoje marca a conclusão de uma saga de anos que começou quando John Oliver fez um segmento sobre Neutralidade da Rede que era tão popular que colocou o sistema de comentários da FCC de joelhos. Dois anos depois, está finalmente perto de abordar todas as questões trazidas em uma investigação do Escritório Geral de Prestação de Contas.
O relatório abrange numerosos problemas de segurança cibernética e TI, alguns dos quais a FCC abordou rapidamente, alguns não tão rapidamente e alguns que ainda estão trabalhando.
"O relatório do GAO de hoje deixa claro o que sabíamos o tempo todo: o sistema da FCC para coletar informações públicas tem problemas", disse a comissária Jessica Rosenworcel ao TechCrunch. "A agência precisa consertar totalmente essa bagunça porque é assim que a FCC deve receber a contribuição do público. Mas, como este relatório demonstra, temos trabalho real a fazer."
Aqui está a linha do tempo básica dos eventos, que parecem ter sido há muito tempo:
- Maio de 2017: O segmento de John Oliver vai ao ar, e no dia seguinte a FCC afirma que foi atingida por ataques de negação de serviço que derrubaram seu sistema de comentários, o ECFS. (Na verdade, era apenas o grande volume de pessoas que queriam compartilhar sua opinião sobre o plano da FCC para acabar com a neutralidade da rede.)
- Julho de 2017: Apesar dos pedidos de detalhes, a FCC se recusa a divulgar quaisquer detalhes sobre o ataque cibernético, apesar das exigências do Congresso, dizendo que a ameaça estava "em andamento". (Suas investigações não tinham de fato determinado intenção maliciosa e sua conta oficial estava em dúvida internamente desde o início.)
- Agosto de 2017: O Congresso pede uma investigação independente das reivindicações da FCC e seu sistema de comentários. (Esse é o relatório divulgado hoje. Também nessa época outro "hack" improvável foi encontrado ter (não) acontecido em 2014.)
- Outubro de 2017: O diretor de informações da FCC, David Bray, que afirmou que os ataques ocorreram tanto em 2017 quanto em 2014, deixa a FCC.
- Dezembro de 2017: A FCC vota ao longo das linhas partidárias para acabar com a neutralidade da rede.
- Junho de 2018: Um grupo de cães de guarda adquire 1.300 páginas de e-mails, que (embora muito fortemente redigidos) mostram que as alegações do DDoS eram essencialmente falsas e conhecidas por serem assim.
- Agosto de 2018: A FCC finalmente admite que nunca foi hackeada, e no dia seguinte seu próprio relatório interno sai mostrando que era realmente apenas um interesse esmagador de pessoas que queriam ser ouvidas. Membros do Congresso acusam o presidente Ajit Pai de "abandono do dever" ao perpetuar essa narrativa perigosamente incorreta.
Então tem sido muito tranquilo basicamente até hoje, quando o relatório solicitado em 2017 foi divulgado publicamente. Uma versão com informações confidenciais (como configurações exatas de software e outras informações técnicas) foi divulgada internamente em setembro, depois revisada para o lançamento de hoje.
O relatório final não é uma grande bomba, uma vez que grande parte dele foi telegrafado antes do tempo. É uma coleção de críticas a um sistema desatualizado com segurança inadequada e outras falhas que poderiam ter sido direcionadas a praticamente qualquer agência federal, entre as quais as práticas de cibersegurança são notoriamente pobres.
A investigação indica que a FCC, por exemplo, não implementou consistentemente controles de segurança e acesso, criptografou dados confidenciais, atualizou ou configurou corretamente seus servidores, detectou ou registrou eventos de cibersegurança, e assim por diante. Nem sempre foi um desastre (mesmo os departamentos de TI nem sempre seguem as melhores práticas), mas, obviamente, algumas dessas deficiências e cortes levaram a questões sérias como o ECFS sendo sobrecarregado.
Mais importante, das 136 recomendações feitas no relatório de setembro, 85 foram totalmente implementadas agora, 10 parcialmente, e o resto está no caminho certo para ser assim.
Isso não deve ser levado a dizer que a FCC esperou o tempo todo para atualizar seus comentários e outros sistemas. Na verdade, ele estava fazendo melhorias quase imediatamente após o evento em maio de 2017, mas se recusou a descrevê-las. Aqui estão algumas das melhorias listadas no relatório do GAO:
O representante Frank Pallone (D-NJ), que tem pressionado a FCC sobre esta questão desde o início, emitiu a seguinte declaração:
Solicitei este relatório porque ficou claro, após o fracasso do período de revogação da neutralidade da rede, que as práticas de segurança cibernética da FCC haviam falhado. Depois de mais de dois anos de investigação, o GAO concorda e encontrou uma preocupante falta de segurança que coloca os sistemas de informação da Comissão em risco… Até que a FCC implemente todas as recomendações restantes, seus sistemas permanecerão vulneráveis a falhas e uso indevido.
Silicon Valley needs a new approach to studying ethics now more than ever
Next month, Apple and Google will unveil features to enable contact tracing on iOS and Android to identify people who have had contact with someone who tests positive for the novel coronavirus.
Security experts have been quick to point out the possible dangers, including privacy risks like revealing identities of COVID-19-positive users, helping advertisers track them or falling prey to false positives from trolls.
These are fresh concerns in familiar debates about tech’s ethics. How should technologists think about the trade-off between the immediate need for public health surveillance and individual privacy? And misformation and free speech? Facebook and other platforms are playing a much more active role than ever in assessing the quality of information: promoting official information sources prominently and removing some posts from users defying social distancing.
As the pandemic spreads and, along with it, the race to develop new technologies accelerates, it’s more critical than ever that technology finds a way to fully examine these questions. Technologists today are ill-equipped for this challenge: striking healthy balances between competing concerns — like privacy and safety — while explaining their approach to the public.
Over the past few years, academics have worked to give students ways to address the ethical dilemmas technology raises. Last year, Stanford announced a new (and now popular) undergraduate course on “Ethics, Public Policy, and Technological Change,” taught by faculty from philosophy, as well as political and computer science. Harvard, MIT, UT Austin and others teach similar courses.
If the only students are future technologists, though, solutions will lag. If we want a more ethically knowledgeable tech industry today, we need ethical study for tech practitioners, not just university students.
To broaden this teaching to tech practitioners, our venture fund, Bloomberg Beta, agreed to host the same Stanford faculty for an experiment. Based on their undergraduate course, could we design an educational experience for senior people who work across the tech sector? We adapted the content (incorporating real-world dilemmas), structure and location of the class, creating a six-week evening course in San Francisco. A week after announcing the course, we received twice as many applications as we could accommodate.
We selected a diverse group of students in every way we could manage, who all hold responsibility in tech. They told us that when they faced an ethical dilemma at work, they lacked a community to which to turn — some confided in friends or family, others revealed they looked up answers on the internet. Many felt afraid to speak freely within their companies. Despite several company-led ethics initiatives, including worthwhile ones to appoint chief ethics officers and Microsoft and IBM’s principles for ethical AI, the students in our class told us they had no space for open and honest conversations about tech’s behavior.
If we want a more ethically knowledgeable tech industry today, we need ethical study for tech practitioners, not just university students.
Like undergraduates, our students wanted to learn from both academics and industry leaders. Each week featured experts like Marietje Schaake, former Member of the European Parliament from the Netherlands, who debated real issues, from data privacy to political advertising. The professors facilitated discussions, encouraging our students to discuss multiple, often opposing views, with our expert guests.
Over half of the class came from a STEM background and had missed much explicit education in ethical frameworks. Our class discussed principles from other fields, like medical ethics, including the physician’s guiding maxim (“first, do no harm”) in the context of designing new algorithms. Texts from the world of science fiction, like “The Ones Who Walk Away from Omelas” by Ursula K. Le Guin, also offered ways to grapple with issues, leading students to evaluate how to collect and use data responsibly.
The answers to the values-based questions we explored (such as the trade-offs between misinformation and free speech) didn’t converge on clear “right” or “wrong” answers. Instead, participants told us that the discussions were crucial for developing skills to more effectively check their own biases and make informed decisions. One student said:
After walking through a series of questions, thought experiments or discussion topics with the professors, and thinking deeply about each of the subtending issues, I often ended up with the opposite positions to what I initially believed.
When shelter-in-place meant the class could no longer meet, participants reached out within a week to request virtual sessions — craving a forum to discuss real-time events with their peers in a structured environment. After our first virtual session examining how government, tech and individuals have responded to COVID-19, one participant remarked: “There feels like so much more good conversation to come on the questions, what can we do, what should we do, what must we do?”
Tech professionals seem to want ways to engage with ethical learning — the task now is to provide more opportunities. We plan on hosting another course this year and are looking at ways to provide an online version, publishing the materials.
COVID-19 won’t be the last crisis where we rely on technology for solutions, and need them immediately. If we want more informed discussions about tech’s behavior, and we want the people who make choices to enter these crises prepared to think ethically, we need to start training people who work in tech to think ethically.
To allow students to explore opposing, uncomfortable viewpoints and share their personal experiences, class discussions were confidential. I’ve received explicit permission to share any insights from students here.