keysession opening 本会議: 2013年~ (6回目) 特徴 有償化 組織運営を中立的、専門的に継続させるために参加者にも費用負担してもらう これまでは、宣伝のため無料としていた openstack Days Tokyo/Cloud Native daysとcloud Nativeがtitleに付与された 様々なOSSを連携する一要素としてのopenstackの下回りという位置を存在づける アプリも含め市場ニーズを如何に迅速に実現するかを目的とした組織として方向を位置付ける 本会の規模、ターゲット 参加登録者: 1000名以上 ターゲット: Infra開発者多数 Q:利用しているクラウド基盤 AOpenStack 32.7%AWS 27 %Azure 13.1%GCP: 8.2% 社内活用しているクラウドの種別 Private: 450 Public 200 hybride: 190 hosted: 100 The Evolution of the OpenStack Foundation Speaker Jonathan Bryce OpenStack Foundation OpenStackの現状 利用状況: 10,000,000 core 稼動中(cpu?) テレコムキャリア分野のうち71%基盤に活用 アナリスト分析: 61億ドルの潜在価値がある 最新機能 NovaによるvGPUの割り当て可能化 1回のupgradeで複数のバージョンを一度にアップグレード可能 長期期間活用できるLongTermバージョンの提供 活用分野 サイエンス リテール・製造・銀行 今後の方向 拡張 AI・機械学習 コンテナ Serverless アーキテクチャ x86 FPGA GPU 協業 OSSの活用数の増大にともない単独開発が困難になるので、コミュニティで活用を推進していく 企業もコニュニティに貢献することで収益につながると認識し投資をおこなっているチェルンー k8sの1000PJ 戦略: 4つの内容を回していく ユースケースの収集 啓蒙活動 課題の洗い出し次に作るものを明らかにする 成果物whitepaper 注目の適用環境edge環境リテール製造コネクティドカー コラボレーション コミュニティを越えた連携 新技術の開発 ホットな技術kata container軽量コンテナテナントごとにカーネルを切れるZuulCI/CDのパイプライン管理 開発内容の実践 kubecon openstack summitからみるコンテナ技術の最新トレンド kube conへの参加理由 言葉の定義 k8s on openstack openstack on k8s k8s on openstack on k8s edge cloud ネットワーク網の構築nfv アクセスポイントよりも先 nfv cloud なぜコンテナにフォーカスするのか たくさんのものをどう配備するか(edge cloud) 場所の制約(edge cloud) architecutre k8s google上でうごく 機能に不足 googlecomputeエンジンがカバーしていた 最新トレンド cncfのランドスケープ 課題 cloud native networkの選択が難しい 選択肢が多くなやましい 、決定打に欠ける 外部nwからコンテナへの接続のためのソリューションが難しい fipの指定のようなもの。。 ない storage apiが用意されたばかり 9ちょんおう nativeappの継続デリバリノウハウが日本で不足している 最新トレンド cubecon 年3回(GWの時期) 4000人(日本 60名) app エンジニア対象 googleのイベント感がある openstack summit vancouver 年2回 opene infrasummitになりそう container 1/3、nfv 1/3 、openstack 1/3 運用者の課題についてのディスカッションがおもしろい 技術 airship(openstack on k8s) at&t under cloud : k8s 1時間放置で構築ができた v1.0 構築ツールとしてすごい!! これからはこれになる kata container 軽量コンテナ だが、hyperviso hw offloard コンテナ環境でマルチテナントの実現可能 gvisorはまだまだ googleのoss edge cloudにおけるk8sの課題 cloudnative可視化、高速化今後calico、cilium 外部networkoctavia、yahooのtool社内ツール cloud native storagecephでいいのか?げんじょう、on-premise knowhow継続airshipspinnakerによる継続デリバリ がいい デモ k8s spinnaker と k8s spinnaker 継続的デリバリができる netflix後、google なぜ デプロイの一貫性がない 安全性が低い デプロイ履歴が管理されない pipleのguiを簡単に作る 開発環境、本番環境も簡単に認証ができCI/CDを実現できる ロールバックを簡単にできる 実装が難しかったが、それを簡便にしてくれた 実績管理もできる 現状の可視化 ロールバックの簡便 課題 設計・設定が必要 ナレッジが少ない マシンリソースmemory 12G blog記事あり Mirantis Cloud Platformが変えるこれからのOpenStack Kubernetes運用 Speaker 会社: mirantis Nobuchika Kamon 代表取締役 プライベートクラウドにおける運用の課題 mirantis cloud platform wrap up intro 仮想化基盤 特徴: リソース活用の有効活用 集約技術 欠点: 管理者による配備までの手間と時間 数日~数時間 クラウド 数秒単位での提供が可能 間の運用管理の省略が可能になる 利点 public コスト制御・ロックイン しくみ自体の運用から完全開放 ユーザーの使い方に特価した習熟 欠点 ランニングコスト 主張 publiccloudで最新技術を追い続けてpriveteに展開 メリット・デメリットをうまく使い分ける あたらしいインフラ public cloudをつかうが、ロックインされない。 先進技術はpublickにする 国内cloudベンダーが実現する技術はプライベートで実現できる すべてなものはserverless,containerにはならない あずけないで、自前するコスト低減がありえる hcihyperconversidinfra pros リニアなサイジングが可能 簡単な構築 既存SIerモデルとも違和感なく融合 cons 部分最適の実現が難しい ストレージだけなど一部だけの拡張ができない 大規拡張が難しい openstack pros 部分最適の実現がかのう cons 構築・運用がむずかせいい 小規模な環境には向かない 従来型の管理手法に基づく管理 スプレッドシートなどによる管理から開放されない 従来の課題 うんようの不可・リスクがかわらない 課題 コスト・パフォーマンス どれぐらいあればいいの bkどすればいいのとか 多種多様なコンポーネントがありそれをどう使うのかが問題。。。 めんてなんすするための人材育成が難しい 監視をどうする mirantis cloud platform(mcp) oss 独自botモデルによる導入 build operate transferをやる 事例 at&t paypal wargen オンプレ上のものをOpenStackに載せる 2ヶ月でやりきる cloudのslaで契約 サイジング 今までの経験でどれくらい必要かを出す 運用ノウハウを売っていく 物理マシンの構成およびクラスターの構成を提案する 設計済みのテンプレートがありそれを提案する mcpの構成 k8s openstack sdn drive train cicdでinfrastractureac codeをおこなう 自動化羃等性の実現 運用物理サーバー 10000 台 100人規模 opscare drivetrain salt stack 50Mb service level汎用もの system level 10MBミランティス推奨の構成 cluster level (顧客管理部分) 200-200kb利用者の要望の内容code管理 git (作業履歴が残る)コードレビュー gerritテスト9 jenkins自動実行 salt stack 自動化 コードで回すことで恐怖はなくなる infra のdevopsの実現可能 mcp導入だけでconfigファイルでの管理になる?? 考えるところだけ人でやり実行は自動にする 顧客の更新頻度は少ない コミュニティへの貢献osの設定など汎用化なものはあげていく monitoring 監視ポイントが多いもの、どれぐらいで監視すべきかをあらかじめ提供 prometheus設定ファイルが多い定義するのをやめるsalt stackであるべきすがたを提供する 富士通適用 事例(mirantis 協業) 北大のcloud基盤提供 事項知能、ビッグデータ、IoT スーパーコンピュータとの結合 性能と柔軟性の使い分けが必要 スタンダードコンフィグ(template) 運用stack right、drive train container k8sで動かすようにmicroservicesが動くappを作るものでなければ意味がない cicd agileによる開発の最大化 mirantis application platform parformance microservices appli deploy speanakernetflics -> googlemercari商用化して使えるようにしている IT Automation with OpenStack and Ansible/AWX speaker redhat hideki saito ansibleのメンテナンス ansibleの機能(ソリューション) awxの紹介 web フロントエンド job管理 システム web ダッシュボードからおこなう コンテナでうごくapp ansible + AWSの一歩すすめる自動化 awsが解決する課題 5w1hを残したい playbookの実行結果をまとめて管理したい 個々人のログになってしまう playbookの陳腐化 バージョン管理(チームでの作業) みんな最新化したものを実行したい work flowの定義 a->b,a->cなどの条件分岐など ターゲットホストの認証情報の一元管理したい キャパシティ管理が難しい フォーク数(並列)の管理はしてくれない controllホストのリソースをみない 複数のノード実行するとsshなどのメモリ消費する(100MB/1node 実行) OOM killerに殺される キャパシティープランニングをしたい!! 外部システムとの連携をしたいがAPIがない AWXの機能 WebUIRESTful ユーザー管理(AD,Google OAuth2) ターゲットホストの認証情報の一言管理 外部iaasとの連携機能あり(AWS,GCP,Azure ,OpenStack) Playbookのリビジョン管理(Github/gitlab) 複数のジョブのワークフロー(rundeckのようなもの) job結果を他のシステムに飛ばせる(slackなど) logstashなどの外部システムとの連携が可能 multiノードができる(HAでない) AWXの位置付け AWXのeterprise Ansible Tower upstleam ansible towerへの要望をアウトしたもの 自動化プラットフォーム Docs Ansible Towerをみるしかない。。。 インストール doekcerのインストールとpythonモジュール ansibleでinstall codeのclone 構成 5コンテナpostgresqlに情報集約webtask9memcachedrabbit demo /credential(認証情報) playbookの実行につかう 管理 ansible towerにある。 認証情報(default準備) openstack vault vmware vCenter API(RESTFUL) tower-cli(restful cli ver.) job実行の仕組み(負荷分散に関わる) docker Django nginx postgresql: 情報の蓄積 rabbitmq celery :rabbitmqからのとりだし supervisord: celeryの実行 ansible k8sでスケールアウトできる postgresql以外のコンテナを同一Podに格納してスケールアウト 増やせるが、減らせない 減らすと、AWX側でremoveしないといけない 自動で減らせない アップストリーム版で回収されるだろう スケールさせると、 memcashed socketや外部のログ管理機能との連携で使用(記憶させておく) 分散させられるのはplaybook単位playbookの実行環境をばらすforkの実行をバラスのは難しい、できないコミュニティの結果フットプリントのminiすぐに開放するようにするpython vertial env jobの流れ rabbitmqへ resourceの開きのあるinstanceで ジョブ実行 playbookで実行 callback pluginでdbに書き込み(playbookの独自plubinは使えなくなる) openstack 連携 dynamicインベントリでリスト作成 cloudymlをつくる インフラCI/CDの勘所 Azureのアーキテクトが語る speacker 真壁 徹 日本マイクロソフト株式会社 アジェンダ インフラのCI/CDの現状 教科書ではなく身近な話 ずばりな答えではないけどヒントになりそうな話 バリバリ系というよりしみじみ系のはなし Azure以外でもつかえる話し インフラ 範囲 libpkg、コンテナ、os・vm、infra ci/cdのパイプライン インフラ オーナー 設計 優先度づけ インフラ技術者 開発者 tool codeかんり ci cd なぜci/cd コスト削減にはならないかも ない!! インフラのデリバリが性格に把握されていない 目的があいまいなまま走ることになる ビジネスが先 困ってなければ、やる必要ない 明日には 配備したいのにできないなどの課題がなければ取り組む必要ない 作業ミスの削減? コードにバグがあれば、壊れる 実現したときの加点項目にしかならない でもリーダー次第 リーダーがまとめてやっていけるかいなか なければ、続かないし実現しない 上はその人をつれてくるのが仕事!!メリットをつたえないとやってくれないのでは?? みつけて異動する 人と組織 dev/ops 誰がCI/CD パイプラインを作り管理するの?? app/infraの両方にDevOpがある 単純に分けられない SREのように捉える必要がある infraが分かるコードを書ける appの話ができる toolの目利きができる パイプラインをつくりながら面倒をみれる人(運用できる人) SREの組織化が必要 受託開発との相性は微妙 (infraではできないこともある) 少数精鋭すぎる問題 ビジネス側が少数精鋭を期待するのは仕方ない 市場価値があり転職しやすい!! ここ重要 誰かが止めた瞬間にレビューが破綻する レビューし会えるメンバーが3人以上必要 ツールとtec 流行り廃りが激しい 使ってみて当面信じられると感じたツールを使う どれを使っても苦労するのは同じ 使う人が決める!! 使う人を巻き込んで購入する ツールのせいにすると、人の責任になる git難しい問題 コードでインフラを表現するならばコードの管理は重要!! gitがデファクトだが難しい 手を動かして覚えないといけない!! あたたかく向かえないと離れてしまう branch/flow チームメンバーが理解できない みんなで勉強する必要がある!!そしてルールを決めていかないといけない deploy羃等性の幻滅期 理想であるが、信頼できない プラグインの中身を理解しているのか?? プラグインに依存しているため、信頼できないかもしれない コードをすべてよめない。。。 内部的にstateをもつもの(terafform)変更すべきか否かをみる この状態が壊れるため、実行の信頼ができない 破壊的な何かがおこる そうなったときの策を用意する 戦略 ドキュメント不要論 半分賛成 コードで管理 docいらない?? コードで表現できないことがある。意図とかが表現できない 全体像、依存関係などはdocに残す issue truckkingとかでかける commitにbkを書こう 未来の自分へのラブレター アジレタチエィへの期待 変化を受け入れて継続改善する? そんなことない決めることはしっかり決めるnetworkはあとから変更できない 破綻するキャパシティは無限でないlbのinboundは強い(azure)but,snat は限られているどれぐらいのVMを作るのかを考えておく必要がある アプリCI/CDとの違い 単体テストが難しい 変更に限ったtestが難しいnetworkのテストが難しいfilterのテスト全部のappがokになるかの確認が非常に難しい deployに時間がかかる失敗したときのリスクがある戻すときのリスクがある(時間が変更以上にかかる可能性あり) テスト監視の一部とする()こういう監視項目をみてokか否かでおこなう変更内容で監視項目がエラーになるかをテストしてみる ネットワークの継続的deployは現実的かリスクが高いもどらないかのうせいもあるため。。 contanuous delusion at the infrastructure layer (cloudscaling.com/blog/devops/co)testとシミュレーションにはかなりのコストが必要テストはシミュレータでおこなう何かで実現できるものを作る必要あり 管理単位を分けてみるdynamicとstaticで分けるdynamic:頻繁に変わる(vm,container)static: network,datastoredeployは手動コードは管理 基盤のアップグレードopenstack,k8sinpreesアップグレード? 信用できない同じ環境でのテストはされない(vendor)有事に誰かの せいにしても、失われたものは戻らない 解決できる戦略 データは王様戦略 新しいものを作って切り替える 外側にdatabaseをつくりまもり、実行環境をつなぐ エンドポイントだけを切り替えるようにする inpressアップグレードより信頼をおける 一時的な増設費用だけ 外部とのインターフェイスを絞る(Hub & Spoke戦略)***** hub ネットワークにすべてを集約していく(external <- hub nw <- private nw) hubネットワークにsubネットワークを追加していく host名、サービス名をpjに伝える IPの伝達だと、全変更する必要がでてくる NetAppでつくる、OpenStackストレージ基盤~ストレージの選定で気をつけるべきポイント~ Speaker 小林慶太 上田雅幸 Yahoo 株式會社 システム統括本部 サイトオペレーション本部 概要 Yahoo: 5年以上、netappのストレージを使っているoepnstack基盤 マニラの導入もおこなった、その問題などについての報告 Openstack ストレージ インフラのビジネス要求のみたしかた agenda インフラ ストレージの課題と解決 openstack 環境とストレージの取り組み インフラ pageview 752億 service 100以上 規模感 論理容量: 65PB (1,5年前 50PB) ストレージのみを縦に積むと、380mの高さになる DCの数:西日本3,東2 サーバー数75000台 現象傾向にある 仮想server1200,000 Cinder提供 netappを使っている netappのOpenStackへの取り組み(三谷) 2011年からOpenStackについて取り組む cumunityへの貢献 cinder 機能追加 30,25 bug修正14 コード行数 manila 外部ストレージ提供の課題と解決 課題 クラスター作成ごとにストレージが必要になる(外部ストレージの増大) 検証や機能追加による増築に工数が急増する 設備投資が減らない 構築業務がなくならない 構築後の運用作業の増大 解決: ストレージとclusterをわける 集約単位 システムの分岐点 DC,AZなどで分けていく nwのつくり(りーちほうほう) L2 -> L3 専用コア・CLOS NW 理解促進活動が必要に。。 ストレージの管理 拡張可能な構成 高性能 ポリシーによる論理分割 NETup 管理単位の提供ができる ストレージレイヤーでの対応も可能 管理台数の増大(クラスターごと) 集約ストレージ 費用削減 管理性向上 あたらしい 監視体制 拡張のタイミングの見極め openstackドライバとの互換性 つたえたいこと ストレージに着目した設計が重要になる openstack環境ストレージの課題と解決(提供部分のストレージのおはなし) クラスターの一部にストレージがある cinder volume 問題 filestorageの需要 openstack manila privae環境 hv障害のdowntimeの短縮 イノジーネイバー 高いdisk性能 all cinderrvolume boot manila cinderのfile shared file system nfs smbの提供 backendにいろいろなstorageをつかえる クラスターごとのボリュームを管理したくない 複数のopenstackclusterから利用可能なもの 拠点/セキュリティ要件単位でアクセス 必要に応じてbkストレージを拡張色々なストレージをつかえるように 注意点 機能面: ストレージの機能として期待どおりの機能をするか ドライバの実行でうごかないかのうせいがあるshareを削除してもストレージ内に実態が残る ここのきのうは動くがくみあわせると使えない 動作面: デフォルトの動作がことなる場合があるmanilaからshareをつくったときにowerがかえられるか? デフォルト設定/APIで設定可能かapiでたたくので、そこが動けば意図どおりに動かせるようになる Netup 機能manilaの異能の大部分の提供をしている動作に問題なしuserからの動作apiまわりの提供ができていたので拡張できた 今後拡張/別拠点展開のため他のvendorも確認中 openstack cinder cinder boot vmの稼動中にたのhvへいどうできるlivemigration hv障害時に復旧をまたずに別のhvでVMを起動できる vmが稼動するので、性能、容量が必要 costがたかい sds(software defined storage)のけんとう さまざまな要因のため安定提供ができなかった(半年でclose) 性能は十分だが、提供がこんなん 新たなsdsの選定検証中 sdsの検証 製品とあぷらいあんす製品の検証安定性そうていどおりに動かないことが多い本番と同じ環境での検証が重要nw設計/設定が重要ストレージ通信が外内部の通信が外にでるので設計missで通信がうまくいかないnetworkエンジニアとの連携が必要ベンダ対応リクエストへの対応修正 リリースの速さかならずbug はっせい するのでその対応がどうなっているかの確認をみきわめておくひつようがあるsdsベンダの対応範囲の広さ何を保証するのかを明確化しておく sdsの検証結果まだ実用化には至らなかったflexcloneをつかったsnapshot vmの展開は優秀cost 削減が必要 sds製品の検証は継続物理ストレージ環境管理が煩雑化netappストレージで集約クラウドストレージmanilaとallcindervolumebootのストレージ検討netappストレージの採用別製品の検討は継続中 netappのsds openstack component ontap select 検証ができる 課題 nodeついかじのしょうがいとりばらんす 性能劣化の検討が必要 そこを検討した設計が必要 whitepaperがある cinderのもんだい iscsiだと上限がでてくる snapshotの劣化overwriteで劣化するが、それがない snapshot volumeのclone filecloneされるだけ扱いが簡便 完了までの時間がみじかい 制約をのこさない途中経路のsnapshotの削除が可能 manila サービス 共有ファイルシステムサービス クラウド間の自由な移動 2日目のkeynoteセッション 概要 CloudNativeにフォーカスした講演 Cloud nativeによるglobalな破壊的な変革 speaker 桂島 ガートナー 概要: 現在のクラウドの適用状況についてと企業がcloud nativeの適用にあたり考慮すべきことはなにか 現状 コンテナの利用状況 ガートナー顧客へのアンケート: 40%(半数程度)が活用 活用状況: 一部分への適用(大規模化はまだ) 技術トレンド disappearing inder datacenter: 企業のDCがなくなる onpreのサーバー(workload): 右肩下り(70%@2018 ->30% @2024) off-Premises,Cloud(workload): 増加(20% @2018 -> 40,50% @ 2024) すべてがクラウド化ではないが、社内のDC、機器類は減少する onpreへの提供・cloud運用企業は淘汰される cloud fast ITの設計がcloudでのdeployをまず考え、不可能であれば自社(onpre)との設計になる 今までのサイクルが逆転する 収益が最大となるポイントでの運用を考慮して設計する能力が求められる containerとserverless cloud shiftで生まれた新たな技術 仮想化/container・Serverless の違い 仮想化 目的 リソースの集約 container・Serverless 目的 開発速度の向上既存開発の持ち出し(lift and shift)レファクタリングmicroservices化して連携、管理の簡便化k8sコンテナのオーケストレーション化をおこない運用コストを下げる クラウドのメリットの最大化OSkernelの共有化起動速度の短縮 AP開発者と連携しての設計が必要